Python--大数据03
一、修改主机名和映射
1.切换root用户,修改需要权限
2.修改主机名 vi /etc/hostname
保存退出
3.修改主机映射 vi /etc/hosts
保存退出
4.重启
5.修改window下的映射
在桌面打开这个文件(记事本),输入以下内容,记住一定输入你配置的静态ip,保存关闭
将桌面的文件拖到原来的文件夹中
选择替换
以管理员继续
完成
二、修改配置文件
1.重新连上linux
2.进入配置目录
3.配置core-site.xml
在configuration添加以下内容 然后保存退出
<property>
<name>fs.defaultFS</name>
<value>hdfs://python8:9000</value>
</property>
4.配置hdfs-site.xml
在configuration添加以下内容 然后保存退出
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>file:///home/hadoop/opt/tmp/dfs/name</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>file:///home/hadoop/opt/tmp/dfs/data</value>
</property>
<property>
<name>dfs.namenode.http-address</name>
<value>python8:50070</value>
</property>
5.配置mapred-site.xml
查看当前目录会发现没有mapred-site.xml文件,只有一个mapred-site-xml.template的文件,我们复制一份命名为mapred-site.xml
命令:cp mapred-site.xml.template mapred-site.xml
在configuration添加以下内容然后保存
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
6.配置yarn-site.xml
然后在configuration添加以下内容然后保存提出
<property>
<name>yarn.resourcemanager.hostname</name>
<value>python8</value>
</property>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
7.修改slaves
配置datanode的主机名称为python8
三、关闭防火墙和selinux
切换到root用户
关闭防火墙
临时关闭:systemctl stop firewlld
永久关闭:systemctl disable firewalld
查看状态:systemctl ststus firewalld
关闭selinux
临时关闭 seteforce 0
永久关闭 vi /etc/selinux/config
修改SELINUX=disabled
getenforce:查看状态
切换到root用户 关闭防火墙
关闭selinux
重启机器reboot
重新连接登录hadoop
查看防火墙和selinux状态
四、执行hdfs文件系统格式化:hdfs namenode -format
五、设置ssh无密码登录
输入:ssh-****** -t rsa 一直按回车
ssh-copy-id 你想登录到的计算机名输入hadoop密码
六 启动服务 start-dfs.sh(如果没有配置ssh无密码登录,那么这里会一直输入密码)
在这里我输入时遇到了报错start-dfs.sh:未找到命令
解决办法:
start-dfs的文件.sh存在于${HADOOP-HOME}/bin?如果没有,请尝试运行通用sbin/start-dfs.sh。
输入命令:sbin/start-dfs.sh 即可
查看启动的服务jps
start-yarn.sh及jps
七 浏览服务器访问,输入python8:50070
成功显示
八、文件上传
1.创建一个目录 hadoop fs -mkdir -p/user/hadoop
2.文件上传
新建一个文件
写入内容
保存退出
上传
查看
七、Anaconda的安装
1.上传
2.安装前需要安装bzip2
(1)需要root用户,切换用户
(2)yum -y install bzip2安装bzip2
命令:yum -y install bzip2
(3)退出root用户
3.安装Anaconda bash Anaconda3-5.0.1-Linux-x86_64.sh
(1)
(2)
(3)
(4)
(5)等待
(6)完成
4.更新变量环境
5.查看jupter地址jupyter-notebook --ip python8
进入网址后按ctrl+c退出
复制网址
注意:此处需要注意当你重启虚拟机分别启动所需要的6项服务后,然后输入jupyter-notebook --ip命令后会显示不出网址报错
是因为权限的问题,
解决办法:重启虚拟机直接用hadoop登录切勿用root登录,虽然我也不知道是什么权限问题但是报错没有问题解决了
6.进浏览器,输入你复制的网址
八、 sopark的安装
1.上传
2.解压缩到opt目录
命令 tar -xzf spark-2.2.1-bin-hadoop2.7tgz -C opt
3.配置环境变量
加入:export SPARK_HOME=/home/hadoop/opt/spark-2.2.1-bin-hadoop2.7
export PATH=$PATH:SPARK_HOME/bin:$SPARK_HOME/sbin
4.更新变量环境
5.测试是否成功