hadoop集群(一主二从)
hadoop集群(一主二从)
- 先关闭两台机的防火墙
- stop-all.sh停止所有服务
- 在两台机中 在 /etc/hosts 添加 主节点主机 ip 和主机名称 以及 从节点的主机ip 和 主机名称,(两台机都需要添加)
vi /etc/hosts
- 在 /usr/local/hadoop-2.7.6/etc/hadoop目录下slaves 添加主机名称和从节点的主机名
vi slaves
- 修改 主节点的 hdfs-site.xml 文件将副本数由原来的1改为2
- 修改从节点的yarn-site.xml 文件中改为了主节点的主机名
- 删除主节点hadoop1主机和从节点hodoop2上面的/usr/local/hadoop-2.6/目录下的logs日志文件夹和移除
- /usr/local/hadoop-2.7.6/data目录下面的所有文件(主机和从机都要移除)
- hdfs namenode -format #初始化
- 启动服务 start-dfs.sh start-yarn.sh
主节点的
从节点的
- hdfs dfsadmin –report 查看
- 测试上传jdk源文件包到hdfs中
- 此时在 http://hadoop1:50070浏览器的web页面上可以看见两个节点的存储信息
- http://hadoop1:8088/cluster/nodes浏览器的web页面上看见两个节点的信息