ICode9

精准搜索请尝试: 精确搜索
首页 > 其他分享> 文章详细

1.3.5 配置全分布模式Hadoop集群

2021-05-15 16:03:23  阅读:166  来源: 互联网

标签:1.3 Hadoop hadoop HADOOP etc sh usr HOME 分布模式


文件
$HADOOP_HOME/etc/hadoop
$HADOOP_HOME/share/doc/hadoop

ls /usr/local/hadoop-2.9.2/etc/hadoop

1.在系统配置文件目录/etc/profile.d/hadoop/sh新建hadoop.sh

su root
vim /etc/profile.d/hadoop.sh
以下是添加的内容
export HADOOP_HOME=/usr/local/hadoop-2.9.2
export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH

source /etc/profile.d/hadoop.sh
echo $PATH

 

进入hadoop:

cd /usr/local/hadoop-2.9.2/

cd etc/hadoop

 

02.配置hadoop-env.sh

vim hadoop-env.sh
25行export JAVA_HOME=/usr/java/jdk1.8.0_281
26行export HADOOP_SSH_OPTS='-o StrictHostKeyChecking=no'
113行export HADOOP_PID_DIR=${HADOOP_HOME}/pids

03.配置 mapred-env.sh

vim  mapred-env.sh

第16行 export JAVA_HOME=/usr/java/jdk1.8.0_281
第28行 export HADOOP_MAPRED_PID_DIR=${HADOOP_HOME}/pids

 

04.配置yarn-env.sh

vim  yarn-env.sh

第23行 export JAVA_HOME=/usr/java/jdk1.8.0_281

最后一行 export YARN_PID_DIR=${HADOOP_HOME}/pids

 

05.配置 core-site.xml

vim core-site.xml


<configuration>
      <property>
      <name>fs.defaultFS</name>
      <value>hdfs:192.168.23.100:9000</value>
      </property>
      <property>
      <name>hadoop.tmp.dir</name>
      <value>/usr/local/hadoop-2.9.2/hdfsdata</value>
      </property>
      <property>
      <name>io.file.buffer.size</name>
      <value>131072</value>
      </property>
</configuration>

 

06.配置 hdfs-site.xml
vim hdfs-site.xml

 

07.配置 mapred-site.xml

vim mapred-site.xml
<configuration>
<property>

      <name>mapreduce.framework.name</name>

      <value>yuan</value>

      </property>
</configuration>

 

08.配置 yarn-site.xml

vim    yarn-site.xml

<configuration>
      <property>

      <name>yarn.resourcemanager.hostname</name>

      <value>master</value>

      </property>

      <property>

      <name>yarn.nodemanger.aux-services</name>

      <value>mapreduce_shuffle</value>

      </property>
</configuration>

09.配置slaves

vim slaves
slave1
slave2

注:一定要删除默认值localhost 一定要删除

 

10.同步配置文件
此步骤下切换到ROOT用户下,将master节点上的文件hadoop.sh同步到其他两台从节点上
01.同步hadoop.sh
scp/etc/profile.d/hadoop.sh root@slavel:/etc/profile.d/
scp/etc/profile.d/hadoop.sh root@slave2:/etc/profile.d/

02.同步Hadoop配置文件
scp -r/usr/local/hadoop-2.9.2/etc/hadoop/*xuluhui@slave1:/usr/local/hadoop-2.9.2/etc/hadoop/
scp -r/usr/local/hadoop-2.9.2/etc/hadoop/*xuluhui@slave2:/usr/local/hadoop-2.9.2/etc/hadoop/

 

标签:1.3,Hadoop,hadoop,HADOOP,etc,sh,usr,HOME,分布模式
来源: https://www.cnblogs.com/zhuimengkeji/p/14771714.html

本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享;
2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关;
3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关;
4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除;
5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有