Hadoop学习(四)_全分布式搭建
差点
1:首先是给每一个node安装jdk
2:在Xshell里面设置每一个node的时间
date -s “2019-4-16 20:00:00”
时间可以不准,但每一台node虚拟机的时间要一样
3:查看一下hosts文件下是否有四台虚拟机
Cat /etc/hosts
4:查看一下安全机制文件是否关闭
看一下这个是否disabled如果不是改成disabled
5:查看主机名是否一样
6:查看防火墙是否关闭
7:免秘钥的分发
Node01是主节点,主节点给从节点分发 秘钥
先登录ssh ssh localhost
8:准备分发
输入代码scp id_dsa.pub node02:pwd
/node01.pub
把这个文件复制到node02注意是本目录下 并且改名为node01.pub
把这个公钥文件追加到验证文件中
其他从节点,同样操作
9:配置从节点
先备份一个hadoop
进入这个文件
修改里面内容为full
10:
11:
12:启动节点
给三个从节点分发Hadoop安装包
“`”英文的esc键下的
13:给节点分发Hadoop环境变量
查看是否一样
:
14:格式化
格式化只对主节点设置
15:启动Hadoop
Start-dfs.sh 开启dsf进程
Start-all.sh 开启全部进程
poweroff :关机并关闭电源