ICode9

精准搜索请尝试: 精确搜索
首页 > 编程语言> 文章详细

java – Hadoop namenode拒绝连接!?我究竟做错了什么?

2019-06-13 23:38:28  阅读:338  来源: 互联网

标签:java linux port hadoop rhel


我的配置:

服务器级机器集群(4台机器),每台机器都配有RHEL,8GB RAM,四核处理器.
我将机器’B1’设置为主机,其余的’作为从机(B2,B3,B4).启动dfs-start.sh,名称节点在B1上的53410上出现.其余节点无法连接到53410上的B1!

这是我到目前为止所做的:

>从B2,B3,B4尝试“telnet B1 53410” – 连接被拒绝.
>从B2,B3,B4尝试ssh到B1,反之亦然 – 没问题,工作正常.
>将53410更改为55410,重新启动dfs,同样的问题 – 此端口上的连接也被拒绝了.
>在B1上禁用防火墙(iptables停止) – 尝试从B2,B3,B4连接 – 在telnet上失败.
>在所有节点上禁用防火墙,再次尝试,再次失败以连接到53410.
>检查ftp工作从B2,B3,B4到B1,停止ftp服务(服务vsftpd停止),尝试在标准ftp端口(21)上启动dfs,namenode出现,其余节点再次失败.甚至无法从B2,B3,B4 telnet到ftp端口.
>“telnet localhost 53410”在B1上正常工作.

所有节点都可以相互访问,所有/ etc / hosts都设置正确的ip地址映射.所以,我现在几乎无能为力.为什么namenode拒绝连接 – 在hadoop conf中是否有设置,我应该知道允许外部客户端在namenode端口上远程连接?

解决方法:

以前的答案对我来说并不清楚.
基本上每个hadoop服务器(节点或名称节点)将创建一个服务器并侦听与其查找名称相关联的IP.

假设您有3个框(box1,box2,box3),/ etc / hosts文件应如下所示:

127.0.0.1 localhost
192.168.10.1 box1
192.168.10.2 box2
192.168.10.3 box3

代替 :

127.0.0.1 localhost box1
192.168.10.2 box2
192.168.10.3 box3
//(this is incorrect, box one will be listening exclusively on 127.0.0.1)

标签:java,linux,port,hadoop,rhel
来源: https://codeday.me/bug/20190613/1235880.html

本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享;
2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关;
3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关;
4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除;
5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有