Hadoop高可用搭建过程

Hadoop高可用搭建

首先安装好xshell,Xftp-4,VMware Workstation Pro

1.用VM创建四台虚拟机node01,02,03,04

2.传输JDK(以node02为主机)

Hadoop高可用搭建过程按这个图标 传输文件JDK!Hadoop高可用搭建过程用JPS验证是否装好JDK(若出现not found,则进行如下操作)
Hadoop高可用搭建过程找JAVA的安装路径
Hadoop高可用搭建过程配置变量环境
Hadoop高可用搭建过程输入代码
Hadoop高可用搭建过程加载文件试一试
Hadoop高可用搭建过程再验证一遍,表示JDK没装好
Hadoop高可用搭建过程重新进入,改PATH为绝对路径
Hadoop高可用搭建过程
Hadoop高可用搭建过程改完以后出来 source加载一遍,让系统知道我们改了代码
Hadoop高可用搭建过程输入JPS验证,出现了数字则表示成功

设置免秘钥

Hadoop高可用搭建过程设置免秘钥 .ssh文件是用来存储秘钥的
Hadoop高可用搭建过程输入代码
Hadoop高可用搭建过程出现这个就是正确的
Hadoop高可用搭建过程输入权限文件代码
Hadoop高可用搭建过程输入ssh localhost 出现数字,没有要求输入密码就是正确的
Hadoop高可用搭建过程exit 退出
Hadoop高可用搭建过程创建software文件夹
Ll列出目录,发现有software文件夹
进入 software导入压缩包
Cd 进opt 建 hzh文件夹
Hadoop高可用搭建过程进入hadoop2.6.5
Hadoop高可用搭建过程配置文件 保存之后source加载一遍,让系统知道我们改了代码
Hadoop高可用搭建过程输入hd之后按TAB键,如果联想出来fs就说明正确
Hadoop高可用搭建过程改JAVA_HOME为绝对路径
![在这里插入图片描述](https://img-blog.****img.cn/20200618105856252.pngHadoop高可用搭建过程
Hadoop高可用搭建过程/usr/java/jdk1.7.0_67
Hadoop高可用搭建过程配置
Hadoop高可用搭建过程
Hadoop高可用搭建过程
Hadoop高可用搭建过程配置Hadoop配置文件 :wq退出
Hadoop高可用搭建过程进入 slaves 删光 改node02 格式化
Hadoop高可用搭建过程格式化成功

集群

Hadoop高可用搭建过程启动集群,输入jps验证,出现以上数字表示成功启动。之后在浏览器输入node02:50070Hadoop高可用搭建过程出现这种界面 显示“active”即为正确
Hadoop高可用搭建过程在hdfs目录下创建input output文件夹。然后可在网页内查看是否创建成功
Hadoop高可用搭建过程

测试

Hadoop高可用搭建过程传入要计算字符的文件
Hadoop高可用搭建过程上传到目录并查看
Hadoop高可用搭建过程
Hadoop高可用搭建过程运行wordcount命令
Hadoop高可用搭建过程查看运行结果
Hadoop高可用搭建过程这样就是运行成功的
Hadoop高可用搭建过程找到Log在哪里
Hadoop高可用搭建过程停止集群

搭建高可用

Hadoop高可用搭建过程传入JDK文件
Hadoop高可用搭建过程表示传输JDK成功Hadoop高可用搭建过程四台虚拟机都传输过去Hadoop高可用搭建过程
Hadoop高可用搭建过程ps以后出来数字就是正确的Hadoop高可用搭建过程Hadoop高可用搭建过程Hadoop高可用搭建过程Hadoop高可用搭建过程

安装时间同步装置

Hadoop高可用搭建过程查看四台机子时间是否是一样的Hadoop高可用搭建过程安装时间同步装置
同步到aliyunHadoop高可用搭建过程Hadoop高可用搭建过程检查基本配置是否正确Hadoop高可用搭建过程查看四台机子是否都是disabledHadoop高可用搭建过程查看防火墙是否都关闭Hadoop高可用搭建过程配置免秘钥Hadoop高可用搭建过程进入目录:cd /opt/pyl/hadoop-2.6.5/etc/Hadoop
Vi 进hdfs-site.xml
去掉snn的配置

dfs.namenode.secondary.http-address node03:50090

增加:

dfs.nameservices mycluster dfs.ha.namenodes.mycluster nn1,nn2 dfs.namenode.rpc-address.mycluster.nn1 node03:8020 dfs.namenode.rpc-address.mycluster.nn2 node03:8020 dfs.namenode.http-address.mycluster.nn1 node04:50070 dfs.namenode.http-address.mycluster.nn2 node04:50070 dfs.namenode.shared.edits.dir qjournal://node03:8485;node04:8485;node05:8485/mycluster dfs.journalnode.edits.dir /var/ldy/hadoop/ha/jn dfs.client.failover.proxy.provider.mycluster org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider dfs.ha.fencing.methods sshfence dfs.ha.fencing.ssh.private-key-files /root/.ssh/id_dsa dfs.ha.automatic-failover.enabled true

Vi 进 core-site.xml
改:

fs.defaultFS hdfs://mycluster ha.zookeeper.quorum node04:2181,node05:2181,node06:2181 ![在这里插入图片描述](https://img-blog.****img.cn/20200618125136434.png)去掉Node02 加上图上所示![在这里插入图片描述](https://img-blog.****img.cn/20200618125146638.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L1Bhd05fXw==,size_16,color_FFFFFF,t_70)![在这里插入图片描述](https://img-blog.****img.cn/20200618125155510.png)![在这里插入图片描述](https://img-blog.****img.cn/20200618125158691.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L1Bhd05fXw==,size_16,color_FFFFFF,t_70)