ICode9

精准搜索请尝试: 精确搜索
首页 > 编程语言> 文章详细

Hadoop程序安装与配置

2022-01-20 18:03:08  阅读:255  来源: 互联网

标签:node01 程序安装 hadoopDatas 配置 Hadoop hadoop export hbase soft


一.集群环境搭建

环境准备

(1) 服务器配置


IP

主机名

环境配置

安装

10.100.100.42

node01

关闭防火墙和selinux,host映射,时钟同步

JDK,NameNode,ResourceManager,Zookeeper

10.100.100.43

node02

关闭防火墙和selinux,host映射,时钟同步

JDK,DataNode,NodeManager,Zookeeper

10.100.100.44

node03

关闭防火墙和selinux,host映射,时钟同步

JDK,DataNode,NodeManager,Zookeeper

(2) 修改主机名与主机名映射

  • 编辑etc/hostname文件  编辑etc/hosts

(3) 关闭防火墙和SELinux

  • Service iptables stop (关闭防火墙)   Chkconfig iptables off  (禁止开机启动)
  • CentOS7
  • systemctl stop firewalld.service #停止firewall
  • systemctl disable firewalld.service #禁止firewall开机启动
  • 关闭Selinux
  • 查看状态命令   /usr/sbin/sestatus -v
  • 修改/etc/selinux/config 文件,将SELINUX=enforcing改为SELINUX=disabled
    • 设置后需要重启才能生效

(4) SSH免密登录

  • 集群三台机器生成公钥私钥对  ssh-keygen -t rsa
  • 将三台机器公钥拷贝到第一台  ssh-copy-id node01
  • 拷贝第一台机器的公钥到另外两台
  • scp /root/.ssh/authorized_keys node02:/root/.ssh
  • scp /root/.ssh/authorized_keys node03:/root/.ssh
  • 免密登录验证在node01 执行 ssh node02

(5) 时钟同步

  • 安装ntp   yum install -y ntp
  • 开启定时服务
  • crontab -e
  • */1 * * * * /usr/sbin/ntpdate ntp4.aliyun.com;

(6) 集群机器安装JDK(1.8)

  • 查看是否安装openJDK,如果安装需要卸载  rpm -qa | grep java
  • 卸载自带jdk   rpm -e jar包 --nodeps
  • 创建目 mkdir -p /export/softPage   mkdir -p /export/soft
  • 上传jdk并解压 安装上传工具 yum -y install lrzsz
  • 上传文件命令 rz -E             
  • 解压文件命令  tar -xvf 安装包(路径) -C /export/soft
  • 配置环境变量 vi /etc/profile
  • export JAVA_HOME=/export/soft/jdk1.8.0_144
  • export PATH=:$JAVA_HOME/bin:$PATH
  • 让配置文件生效 source /etc/profile
  • 验证jdk安装成功 java -version
  • 远程拷贝文件夹 scp -r 文件夹路径 node01:/export/soft
  • 配置其他机器的环境变量,具体操作见上
  • 取消日志提醒日志
  • vi /etc/profile添加unset MAILCHECK  然后让文件生效 source /etc/profile

二.Zookeeper集群环境搭建

(1) 集群规划

                                IP

主机名

MyId

10.100.100.42

Node01

1

10.100.100.43

Node02

2

10.100.100.44

Node03

3

(2) 下载Zookeeper(3.4.9)安装包

(3) 解压文件

  • tar -xvf 安装包 -C /export/soft

(4) 修改配置文件

  • cd /export/soft/zookeeper-3.4.9/conf/
  • 拷贝模板配置文件  cp zoo_sample.cfg zoo.cfg
  • 创建zookeeper数据目录 mkdir -p /export/soft/zookeeper-3.4.9/zkdatas
  • 配置数据目录

  • 配置快照数

  • 配置日志清理时间

 

  • 配置zookeeper集群
  • server.1=node01:2888:3888
  • server.2=node02:2888:3888
  • server.3=node03:2888:3888

(5) 创建myid配置文件

  • vi myid
  • Echo 1 > /export/soft/zookeeper-3.4.9/zkdatas/myid

(6) 安装包分发到node02 node03

  • scp -r 文件夹路径 node02:/export/soft
  • scp -r 文件夹路径 node03:/export/soft

(7) 启动集群中每台机器的zookeeper服务

  • 启动服务    /export/soft/zookeeper-3.4.9/bin/zkServer.sh start
  • 查看服务状态  /export/soft/zookeeper-3.4.9/bin/zkServer.sh status

三.Hadoop集群环境搭建

(1) 集群规划

服务器IP

10.100.100.42

10.100.100.43

10.100.100.44

主机名

Node01

Node02

Node03

NameNode

SecondaryNameNode

dataNode

ResourceManager

NodeManager

(2) 安装包下载(Hadoop2.7.5)​​​​​

(3) 文件上传及解压  详细操作见上面类似的操作

(4) 修改配置文件  

  • 修改core-site.xml   文件路径  /export/soft/hadoop-2.7.5/etc/hadoop/core-site.xml
  • 修改内容

<configuration>

<!--设置文件类型和主节点-->

<property>

<name>fs.default.name</name>

<value>hdfs://192.168.1.200:8020</value>

</property>

<!--设置Hadoop临时目录-->

<property>

<name>hadoop.tmp.dir</name>

<value>/export/soft/hadoop-2.7.5/hadoopDatas/tempDatas</value>

</property>

<!--设置缓冲区大小-->

<property>

<name>io.file.buffer.size</name>

<value>4096</value>

</property>

<!--设置hdfs垃圾桶回收机制、主要是清空回收站的时间,单位分钟-->

<property>

<name>fs.trash.interval</name>

<value>10080</value>

</property>

</configuration>



修改hdfs-site.xml

文件路径

/export/soft/hadoop-2.7.5/etc/hadoop/hdfs-site.xml

修改内容

<configuration>

<!-- 配置secondaryNameNode的访问地址 -->

<property>

<name>dfs.namenode.secondary.http-address</name>

<value>node01:50090</value>

</property>

<!-- 配置nameNode的访问地址 -->

<property>

<name>dfs.namenode.http-address</name>

<value>node01:50070</value>

</property>

<!-- 配置nameNode存储元数据的位置 -->

<property>

<name>dfs.namenode.name.dir</name>

<value>file:///export/soft/hadoop-2.7.5/hadoopDatas/namenodeDatas,file:///export/soft/hadoop-2.7.5/hadoopDatas/namenodeDatas2</value>

</property>

<!-- 配置dataNode数据存储的节点位置 -->

<property>

<name>dfs.datanode.data.dir</name>

<value>file:///export/soft/hadoop-2.7.5/hadoopDatas/datanodeDatas,file:///export/soft/hadoop-2.7.5/hadoopDatas/datanodeDatas2</value>

</property>

<!-- 配置nameNode日志文件存放位置 -->

<property>

<name>dfs.namenode.edits.dir</name>

<value>file:///export/soft/hadoop-2.7.5/hadoopDatas/nn/edits</value>

</property>

<!-- 配置检查点文件存放位置 -->

<property>

<name>dfs.namenode.checkpoint.dir</name>

<value>file:///export/soft/hadoop-2.9.2/hadoopDatas/snn/name</value>

</property>

<!--   -->

<property>

<name>dfs.namenode.checkpoint.edits.dir</name>

<value>file:///export/soft/hadoop-2.9.2/hadoopDatas/dfs/snn/edits</value>

</property>

<!-- 单个数据分片文件存放的副本个数  -->

<property>

<name>dfs.replication</name>

<value>3</value>

</property>

<!-- 是否启用权限 -->

<property>

<name>dfs.permissions</name>

<value>false</value>

</property>

<!-- 单个数据分片大小 128M-->

<property>

<name>dfs.blocksize</name>

<value>134217728</value>

</property>

</configuration>

修改hadoop-env.sh   主要是修改jdk的路径

/export/soft/jdk1.8.0_144

修改mapred-site.xml 修改内容

<configuration>

<!-- 开启MapReduce小任务模式  -->

<property>

<name>mapreduce.job.ubertask.enable</name>

<value>true</value>

</property>



<!-- 设置历史任务的主机和端口  -->

<property>

<name>mapreduce.jobhistory.address</name>

<value>node01:10020</value>

</property>



<!-- 设置网页访问历史任务的主机和端口  -->

<property>

<name>mapreduce.jobhistory.webapp.address</name>

<value>node01:19888</value>

</property>

</configuration>

修改yarn-site.xml,修改内容

<!-- 配置yarn主节点的位置 -->

<property>

<name>yarn.resourcemananger.hostname</name>

<value>node01</value>

</property>



<!--  -->

<property>

<name>yarn.nodemanager.aux-services</name>

<value>mapreduce_shuffle</value>

</property>



<!-- 开启日志聚合功能 -->

<property>

<name>yarn.log-aggregation-enable</name>

<value>true</value>

</property>



<!-- 设置聚合日志文件在hdfs上保存的时间,单位为秒 -->

<property>

<name>yarn.log-aggregation.retain-seconds</name>

<value>604800</value>

</property>



<!-- 设置yarn集群的内存分配方案 -->

<property>

<name>yarn.nodemanager.resource.memory-mb</name>

<value>20480</value>

</property>

<property>

<name>yarn.scheduler.minimum-allocation-mb</name>

<value>2048</value>

</property>

<property>

<name>yarn.nodemanager.vmem-pmem-ratio</name>

<value>2.1</value>

</property>
  • 修改mapred-env.sh  主要是修改jdk的路径

  export JAVA_HOME=/export/soft/jdk1.8.0_144

 修改slaves 改文件主要是配置丛级关系  修改内容如下:Node01   Node02   Node03

  • 创建目录
mkdir -p /export/soft/hadoop-2.9.2/hadoopDatas/tempDatas

mkdir -p /export/soft/hadoop-2.9.2/hadoopDatas/namenodeDatas

mkdir -p /export/soft/hadoop-2.9.2/hadoopDatas/namenodeDatas2

mkdir -p /export/soft/hadoop-2.9.2/hadoopDatas/datanodeDatas

mkdir -p /export/soft/hadoop-2.9.2/hadoopDatas/datanodeDatas2

mkdir -p /export/soft/hadoop-2.9.2/hadoopDatas/nn/edits

mkdir -p /export/soft/hadoop-2.9.2/hadoopDatas/snn/name

mkdir -p /export/soft/hadoop-2.9.2/hadoopDatas/dfs/snn/edits
  • 安装包分发

        scp -r 安装包路径 node02:$PWD

        scp -r 安装包路径 node03:$PWD

  • 配置hadoop环境变量

        vi /etc/profile

        export HADOOP_HOME=/ export/soft/hadoop-2.9.2

        export PATH=:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH

         source /etc/profile

  • 启动集群,在主节点上

        cd /export/soft/hadoop-2.7.5/

        bin/hdfs/ namenode -format(第一次启动才执行)

        sbin/start-dfs.sh   Sbin/start-yarn.sh

        sbin/mr-jobhistory-daemon.sh start historyserver

        网页查看hdfs http://node01:50070/explorer.html#/

        网页查看yarn集群   http://node01:8088/cluster

        网页查看历史完成的任务 http://node01:19888/jobhistory

四.Hbase(hadoop数据库)安装

(1)安装包下载并上传(hbase 2.1.0)

        下载路径 http://archive.apache.org/dist/hbase   软件版本 2.1.0

(2)修改hbase-env.sh文件

        export JAVA_HOME=/export/soft/jdk1.8.0_144

        export HBASE_MANAGES_ZK=false

 

 

 

(3)修改hbase-site.xml文件

 

<!-- Hbase数据在HDFS中的存放位置 -->
  <property>
    <name>hbase.rootdir</name>
    <value>hdfs://node01:8020/hbase</value>
  </property>
  <!-- Hbase运行模式 false 单击模式  true 分布式模式 -->
  <property>
    <name>hbase.cluster.distributed</name>
    <value>true</value>
  </property>
  <!-- ZooKeeper集群地址 -->
  <property>
    <name>hbase.zookeeper.quorum</name>
    <value>node01,node02,node03</value>
  </property>
  <!-- ZooKeeper快照数据地址 -->
  <property>
    <name>hbase.zookeeper.property.dataDir</name>
    <value>/export/soft/zookeeper-3.4.9/zkdatas</value>
  </property>
  <property>
    <name>hbase.tmp.dir</name>
    <value>./tmp</value>
  </property>
  <!-- 分布式模式设为false -->
  <property>
    <name>hbase.unsafe.stream.capability.enforce</name>
    <value>false</value>
  </property>

(4)配置环境变量文件

        export HBASE_HOME=/export/soft/hbase-2.4.0

        export PATH=:$HBASE_HOME/bin:$HBASE_HOME/sbin:$PATH

(5)拷贝依赖库

       cp $HBASE_HOME/lib/client-facing-thirdparty/htrace-core4-4.2.0-incubating.jar                          $HBASE_HOME/lib

(6)修改regionservers文件

        

(7)安装包分发

        

        scp -r hbase-2.4.0/ node02:$PWD

        scp -r hbase-2.4.0/ node03:$PWD

(8)修改node02 node03的环境变量并生效

(9)启动Hbase

        首先要保证zookeeper集群和hadoop集群已经启动。然后在主节点上启动Hbase

        进入到Hbase的bin目录,执行start-hbase.sh

(10)验证Hbase是否启动成功

        

 

(11)Hbase网页界面

        Http://10.100.100.42:16010

五.Phoenix(5.0.0)插件安装

(1)文件下载

        文件下载地址   Http://phoenix.apache.org/download.html

(2)文件上传并解压  tar -xvf phoenix-hbase-2.4.0-5.1.2-bin.tar.gz -C /export/soft

(3)拷贝Jar包到Hbase目录

        cp  /export/soft/phoenix-hbase-2.4.0-5.1.2-bin/phoenix-*.jar /export/soft/hbase-2.4.0/lib/

(4)分发Jar包到Hbase的其他节点上

        scp phoenix-*.jar node02:$PWD

        scp phoenix-*.jar node03:$PWD

(5)修改配置文件

修改hbase的配置文件

cd /export/soft/hbase-2.4.0/conf/

修改hbase-site.xml文件

 <!-- 支持HBase命名空间映射 -->

  <property>

    <name>phoenix.schema.isNamespaceMappingEnabled</name>

    <value>true</value>

  </property>

  <!-- 支持索引日志预写编码 -->

  <property>

    <name>hbase.regionserver.wal.codec</name>

    <value>org.apache.hadoop.hbase.regionserver.wal.IndexedWALEditCodec</value>

  </property>

(6)分发配置文件

        scp hbase-site.xml node02:$PWD

        scp hbase-site.xml node03:$PWD

(7)拷贝配置文件到phoenix目录中

        cp hbase-site.xml /export/soft/phoenix-hbase-2.4.0-5.1.2-bin/bin/

(8)重启Hbase服务

        新集群 zookeeper3.4.9 hadoop2.7.5  hbase 2.1.0  phoenix (5.0.0-Hbase2.0)

        检查hadoop2.7.5对本地库的支持

        Bin/hadoop/ checknative     SpringBoot 整合Hadoop

        客户端在windows环境下需要hadoop.dll

        上述新集群

 

标签:node01,程序安装,hadoopDatas,配置,Hadoop,hadoop,export,hbase,soft
来源: https://blog.csdn.net/fyc__iOS/article/details/122605383

本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享;
2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关;
3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关;
4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除;
5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有