前言通过在Hadoop1安装Hadoop,然后配置相应的配置文件,最后将Hadoop 所有文件同步到其他Hadoop节点。 一、集群规划#主机名‘master/hadoop1’ ‘slave01/hadoop2’ ‘slave02/hadoop3’ #启动节点Namenode Nodemanager Nodemanager
RPC框架 远程过程调用 1.服务端启动服务, 2.客户端获取服务端接口协议的代理对象 3.客户端通过代理对象的接口协议,调用服务端提供的功能(直接通过socket协议通信) hdfs接口协议对象是 org.apache.hadoop.hdfs.protocol.ClientProtocol; rpc hadoop 动态代理 proxy socket L
一、配置账户 创建hadoop用户 sudo useradd -m hadoop -s /bin/bash 设置hadoop用户的密码 sudo passwd hadoop 给hadoop用户分配管理员权限 sudo adduser hadoop sudo 切换至hadoop用户 sudo su - hadoop 更新apt sudo apt-get update 二、安装ssh-server及配置免密登
在此之前要配置好三节点的hadoop集群,zookeeper集群,并启动它们,然后再配置好HBase环境 本文只是HBase2.3.5API操作作相应说明,如果前面环境还没有配置好,可以翻看我之前的博客,欢迎留言交流 节点hadoop01 节点hadoop02 节点hadoop03 1 maven依赖 <dependency>