ICode9

精准搜索请尝试: 精确搜索
  • |NO.Z.00005|——————————|^^ 部署 ^^|——|Hadoop&kafka.V05|-------------------------------------------|kaf2022-04-09 14:04:22

    [BigDataHadoop:Hadoop&kafka.V05]                                                                          [BigDataHadoop.kafka][|章节一|Hadoop生态圈技术栈|kafka|kafka单机模式部署|jdk.v8u231|zookeeper.v3.4.14|kafka.v2.12|]一

  • Windows环境中Hadoop配置2022-04-08 15:04:08

    我们之前已经在Windows中安装好了Hadoop,并且配置了环境变量。如果要在本地上运行的,还需要这两个文件,可以去找一下,放到Hadoop的bin目录下面。这样我们写好的mr程序就可以直接在Windows上面运行了,不用再去打包上传等等。  

  • Hadoop安装2022-04-08 15:02:46

    配置三台主机的主机名、网络、域名解析 #master hostnamectl set-hostname master bash #slave1 hostnamectl set-hostname slave1 bash #slave2 hostnamectl set-hostname slave2 bash #master nmcli con modify 网卡名 ipv4.addresses 10.10.10.128/24 ipv4.gateway 10.10.10

  • word count的reduce过程以及项目打包部署2022-04-08 12:01:55

      map过程已经写完了,上面那个流程我们涉及到了泛型以及序列化,我们要知道每个参数代表的含义,这样有助于我们理解整个流程。 下面我们开始reduce,这个过程我们要把map输出的键值对把key值相同的放在一起,具体的流程我们看代码: package MR.wc;import org.apache.hadoop.io.IntWritabl

  • Windows环境安装Hadoop环境2022-04-07 21:00:22

    1,下载Hadoop,解压    2,配置Hadoop环境变量 右键此电脑——属性 高级系统设置   环境变量 新建一个HADOOP_HOME    添加到path    3,cmd窗口查看安装情况:hadoop version   

  • 部分学习路线2022-04-06 17:31:56

    部分学习路线 SSM框架学习路线: SSM框架:     Mybatis:   Spring:   SpringMVC:       Linux学习路线: Linux学习:         Springboot学习: Springboot:         SpringCloud学习: SpringCloud学习:         Hadoop框架

  • 大数据Hadoop原理介绍+安装+实战操作(HDFS+YARN+MapReduce)2022-04-05 01:34:29

    目录一、Hadoop概述二、HDFS详解1)HDFS概述HDFS的设计特点2)HDFS组成1、Client2、NameNode(NN)3、DataNode(DN)4、Secondary NameNode(2NN)3)HDFS具体工作原理1、两个核心的数据结构: Fslmage和EditLog2、工作流程3、HDFS读文件流程4、HDFS文件写入流程三、Yarn详解1)Yarn概述2)YARN架构组件1

  • Hadoop | 集群启动停止脚本2022-04-04 09:34:43

    Hadoop | 集群启动停止脚本 hdp.sh #!/bin/bash if [ $# -lt 1 ] then echo "No Args Input..." exit ; fi case $1 in "start") echo " =================== 启动 hadoop集群 ===================" echo " -------------

  • ERROR: org.apache.hadoop.hbase.PleaseHoldException: Master is initializing Hbase建表报错2022-04-04 00:04:24

    1.报错信息(起初我重置了namenode) 2. 启动所有sh文件   在hbase目录下 bin/start-hbase.sh 3.重新创建表格       4.总结   显示初始化可能是没有启动regionserver,可以尝试启动所有的sh文件   参考连接:https://blog.csdn.net/weixin_45838279/article/details/1213898

  • Hadoop环境设置之单机模式2022-04-03 16:01:17

    Jdk环境安装 首先就是一些安装前的准备,这里需要大家先安装好虚拟机,以及安装Ubuntu操作系统(这个到Ubuntu官网自行下载自己所需要的版本即可) 关闭防火墙:   SSH安装:   上传jdk安装包到software中:(这里的这个software文件是需要自己创建的)         解压到servers中(解压过程)

  • linux安装spark2022-04-02 18:36:05

    一、安装依赖信息 spark版本:spark-3.1.3-bin-hadoop3.2 hadoop版本:hadoop-3.2.1 scala版本:scala-2.11.12  建议3.12版本 下载地址:https://spark.apache.org/downloads.html 二、安装 2.1 单机配置环境 vim ~/.bash_profile  #Spark3 SPARK_HOME=/Users/Robots2/softWare/spark-3

  • linux登录hadoop 执行hql的脚本2022-04-02 09:32:32

    #!/bin/bash#登录权限source /opt/hadoopclient/bigdata_env#输入账号密码/usr/bin/expect <<-EOFset time 5spawn kinit tianexpect {"Password" {send "Huawei#123\r"}}expect eofEOF#read -p "请输入开始时间:" startDay#read -p "请输入结束时间:"

  • Hadoop3.x2022-03-31 10:32:19

    Hadoop是什么 Hadoop是一个由Apache基金会所开发的分布式系统基础架构。 主要解决,海量数据的存储和海量数据的分析计算问题。 广义上来说,Hadoop通常是指一个更广泛的概念————Hadoop生态圈。 Hadoop优势(4高) 高可靠性:Hadoop底层维护多个数据副本,所以即使Hadoop某个计算机元素

  • 2022.3.28学习成果2022-03-29 00:31:56

    一·,完善Hadoop伪分布式安装: 关闭防火墙并熟记代码 [root@master ~]# systemctl stop firewalld [root@master ~]# systemctl disable firewalld 配置SSH localhost无密码验证。 掌握生成密钥对:  [hadoop@master ~]$ ssh-keygen -t rsa -P '' 完成 JDK的安装和配置 配置环境变

  • 【转载】Spark集群环境搭建——部署Spark集群2022-03-28 23:03:35

    转在doublexi: https://www.cnblogs.com/doublexi/p/15624795.html 在前面我们已经准备了三台服务器,并做好初始化,配置好jdk与免密登录等。并且已经安装好了hadoop集群。如果还没有配置好的,参考我前面两篇博客:Spark集群环境搭建——服务器环境初始化:https://www.cnblogs.com/doubl

  • centos7安装hadoop-2.8.0详细过程2022-03-28 17:01:00

      一、下载各项包: Hadoop:http://www.apache.org/dyn/closer.cgi/hadoop/common/hadoop-2.8.0/hadoop-2.8.0.tar.gz jdk:https://www.oracle.com/java/technologies/downloads/  选择jdk-8u321-linux-x64.tar.gz 注意:下载Hadoop时可能会出现下载较慢的情况,只需重新下载就会变快。

  • 关于Hadoop启动和结束脚本2022-03-25 22:04:20

    Hadoop启动结束 对hdfs ,yarn,historyserver服务的启动,结束 #!/bin/bash​if [ $# -lt 1 ]then echo "No Args Input..." exit;fi​case $1 in"start") echo "=========启动 Hadoop集群=========="​ echo "---------启动 hdfs-------

  • Flink1.9.0升级到Flink1.12.1问题汇总2022-03-25 11:32:10

    业务场景: Flink消费Kafka数据写入Hbase 组件版本: CDH:6.3.0 Flink:1.12.1 Hbase:2.1.0-cdh6.3.0 问题1: java.lang.NoSuchMethodError:org.apache.commons.cli.Option.builder(Ljava/lang/string;)   问题原因: hadoop-common依赖中commons-cli版本过低,导致程序运行找不到最新版的方

  • python 使用 SPARK Hadoop2022-03-21 17:32:39

    下载相应包。然后放到linux 相关目录,然后配置环境变量,配置文件如下 vim ~/.bash_profile # .bash_profile # Get the aliases and functions if [ -f ~/.bashrc ]; then . ~/.bashrc fi # User specific environment and startup programs PATH=$PATH:$HOME/.local/

  • Windows环境下搭建Hadoop+Spark+Zookeeper+Kafka2022-03-21 11:02:06

    文章目录 JDK安装Hadoop安装Spark安装Zookeeper安装Kafka安装 JDK安装 Hadoop安装 Spark安装 Zookeeper安装 Kafka安装 一.Windows10 64位环境pyspark安装 1.安装JDK1.8 (1)下载JDK1.8,需要注册一下oracle网址 https://www.oracle.com/java/technologies/javase/javase-jd

  • 大数据系列——Hadoop部署及应用2022-03-20 15:04:46

    Hadoop有三种部署方式,分别为单机模式、伪集群模式、集群模式。 其中单机模式比较简单,自行查找;伪集群模式和集群模式基本一样,区别就是前者都在一台电脑上,后者在不同的电脑上。 下面以生产环境一般用的集群方式部署为例说明,按最小要求3台节点来介绍集群部署方式。本样例是在3台

  • Hadoop_shell脚本2022-03-20 15:03:49

    #!/bin/bash #指定告知系统当前这个脚本要使用的shell解释器 a="hello" 定义变量 echo $a 输出变量 dt=`date '+%F %T'` # +%F表示年月日。%T表示时分秒,单独使用时要加+号。字母可以小写 a=10 readonly a #将变量设置为只读,只读的变量不可修改,但能用来做运算和输出 read -p 'inp

  • HDFS基本操作实践2022-03-19 19:05:33

    实验内容: 在HDFS的shell客户端和Java API客户端操作HDFS的节点,对文件进行操作 实验数据记录: 在HDFS的shell端操作: 主要使用了 hadoop fs 的一些简单指令 在HDFS的Java API端操作: 打开安装好的IDEA,新建maven项目,点击右上角setting,配置maven: 在pom.xml文件中添加如下内容: <d

  • 大数据教程-01HDFS的基本组成和原理2022-03-18 20:35:41

    一 Hadoop历史背景 起源于2003年谷歌的Google File System相关论文,随后Doug Cutting(我们下面就叫他切哥吧)基于GFS的论文实现了分布式文件系统,并把它命名为NDFS(Nutch Distributied File System)。 2004年谷歌又发表了一篇学术论文,介绍了自己的MapReduce编程模型,这个编程模型适用于大

  • is running 236038656B beyond the 'VIRTUAL' memory limit. Current usage: 52.4 MB of 1 GB p2022-03-18 19:06:06

    [2022-03-18 18:26:57.187]Container [pid=92959,containerID=container_1647598528227_0003_01_000002] is running 236038656B beyond the 'VIRTUAL' memory limit. Current usage: 52.4 MB of 1 GB physical memory used; 2.3 GB of 2.1 GB virtual memory used.

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有