ICode9

精准搜索请尝试: 精确搜索
首页 > 其他分享> 文章详细

Hadoop 3.x.x的安装与

2021-09-13 23:31:15  阅读:145  来源: 互联网

标签:安装 soft Hadoop hadoop usr mapreduce local HADOOP


  • 安装前提,需要三台虚拟机并关闭防火墙,配置静态IP,配置免密登陆,JDK的安装,这些操作可以看我Linux分类中的文章,不做过多说明。
  • 我使用过的hadoop 版本是hadoop 3.1.3

 

  • 下面开始安装步骤
  • 首先将安装包传输到目录下,并解压
  • tar -zxvf hadoop-3.1.3.tar.gz -C /usr/local/soft/

 

  • 解压完成后可以进行改名
  • mv hadoop-3.1.3 hadoop

 

 

  • 配置环境变量
  • export HADOOP_HOME=/usr/local/soft/hadoop    (这里需要是你自己的安装目录)
  • export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/sbin:$HADOOP_HOME/bin 

 

  •  进入hadoop的配置文件目录下开始配置
  • cd /usr/local/soft/hadoop/etc/hadoop/
    • 首先修改workers文件 (如果是2.x版本的话应该是slaves文件)
    • vim workers    添加你自己的主机名,再配置这里之前需要确保你 /etc/hosts 文件已经配置过IP地址和主机名

 

    • 再修改hadoop-env.sh文件
    • vim hadoop-env.sh
    • export JAVA_HOME=/usr/local/soft/jdk1.8.0_171   (注意,这里需要是你自己的JDK地址,记得修改)

 

 

    •  core-site.xml文件
    • vim core.site.xml
<configuration>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://master:9000</value>
    </property>
    <property>
        <name>io.file.buffer.size</name>
        <value>131072</value>
    </property>
    <property>
        <name>hadoop.tmp.dir</name>
        <value>file:/usr/local/soft/hadoop/tmp/</value>
    </property>
</configuration>

 

 

 

    • hdfs-site.xml文件
    • vim hdfs-site.xml
    • hadoop-3.1.1 默认端口9870  (后面打开管理网页需要用到)

<configuration>
 <property>
        <name>dfs.namenode.name.dir</name>
        <value>/usr/local/soft/hadoop/tmp</value>
    </property>
    <property>
        <name>dfs.datanode.data.dir</name>
        <value>/usr/local/soft/hadoop/data/data</value>
    </property>

    <property>
        <name>dfs.replication</name>
        <value>3</value>
    </property>

    <property>
        <name>dfs.namenode.secondary.http.address</name>
        <value>master:9870</value>
    </property>

    <property>
        <name>dfs.permissions</name>
        <value>false</value>
    </property>
</configuration>

 

    • yarn-site.xml
    • vim yarn-site.xml
<configuration>

<!-- Site specific YARN configuration properties -->
  <property>
        <name>yarn.resourcemanager.hostname</name>
        <value>master</value>
    </property>
    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>
</configuration>

 

  •  vim mapred-site.xml
<configuration>
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
    <property>
         <name>yarn.app.mapreduce.am.env</name>
         <value>HADOOP_MAPRED_HOME=${HADOOP_HOME}</value>
    </property>
    <property>
         <name>mapreduce.map.env</name>
         <value>HADOOP_MAPRED_HOME=${HADOOP_HOME}</value>
    </property>
    <property>
         <name>mapreduce.reduce.env</name>
         <value>HADOOP_MAPRED_HOME=${HADOOP_HOME}</value>
    </property>

    <property>
          <name>mapred.job.tracker</name>
          <value>master:9001</value>
    </property>

    <property>
       <name>mapreduce.map.memory.mb</name>
       <value>1536</value>
    </property>
    <property>
       <name>mapreduce.map.java.opts</name>
       <value>-Xmx1024M</value>
    </property>
    <property>
       <name>mapreduce.reduce.memory.mb</name>
       <value>3072</value>
    </property>
    <property>
       <name>mapreduce.reduce.java.opts</name>
       <value>-Xmx2560M</value>
    </property>

    <property>
         <name>mapreduce.jobhistory.address</name>
         <value>master:10020</value>
    </property>
    <property>
         <name>mapreduce.jobhistory.webapp.address</name>
         <value>master:19888</value>
    </property>
</configuration>

 

  • 这些配置完成后,进入/hadoop/sbin目录下进行一些配置
  • 对于start-dfs.sh和stop-dfs.sh文件,添加下列参数,可以添加在末尾或者第二行:

HDFS_DATANODE_USER=root
HADOOP_SECURE_DN_USER=hdfs
HDFS_NAMENODE_USER=root
HDFS_SECONDARYNAMENODE_USER=root

 

  • 对于start-yarn.sh和stop-yarn.sh文件,添加下列参数:
#!/usr/bin/env bash
YARN_RESOURCEMANAGER_USER=root
HADOOP_SECURE_DN_USER=yarn
YARN_NODEMANAGER_USER=root

 

  • 进行格式化 (我是在分发之后分别对三台进行格式化的)
  • cd /usr/local/soft/hadoop/sbin
  • ./hdfs namenode -format

 

  • 对文件进行分发。
  • scp -r /usr/local/soft/hadoop slave1:/usr/local/soft/
  • scp -r /usr/local/soft/hadoop slave2:/usr/local/soft/

 

 

  •  配置文件也不要忘记
  • scp -r /etc/profile slave1:/etc/profile
  • scp -r /etc/profile slave2:/etc/profile

 

  • 启动虚拟机
  • ./start-all.sh

 

 

 

 

  •  检查确定有这些进程后,打开网页
  • 在网址上输入你的IP地址加上前面提到的端口号9870,出现下方页面则代表搭建hadoop3.x版本成功!

 

 

 

标签:安装,soft,Hadoop,hadoop,usr,mapreduce,local,HADOOP
来源: https://www.cnblogs.com/Xinyi-bigdata/p/15265425.html

本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享;
2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关;
3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关;
4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除;
5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有