Hadoop Datanode奴隶没有连接到我的主人
由于很多错误,我无法弄清楚为什么它没有将datanode奴隶vm连接到我的主vm。任何建议是受欢迎的,所以我可以尝试。 并开始,其中之一就是这个错误在我的奴隶VM日志:Hadoop Datanode奴隶没有连接到我的主人
WARN org.apache.hadoop.hdfs.server.datanode.DataNode: Problem connecting to server: ubuntu-378e53c1-3e1f-4f6e-904d-00ef078fe3f8:9000
正因为如此,我不能运行我想在我的主VM的工作:
hadoop jar ./share/hadoop/mapreduce/hadoop-mapreduce-examples-2.2.0.jar pi 2 5
这给我这个错误
org.apache.hadoop.ipc.RemoteException(java.io.IOException): File /user/ubuntu/QuasiMonteCarlo_1386793331690_1605707775/in/part0 could only be replicated to 0 nodes instead of minReplication (=1). There are 0 datanode(s) running and no node(s) are excluded in this operation.
即使如此,该hdfs dfsadmin -report
(在主机VM)给了我所有的0
Configured Capacity: 0 (0 B)
Present Capacity: 0 (0 B)
DFS Remaining: 0 (0 B)
DFS Used: 0 (0 B)
DFS Used%: NaN%
Under replicated blocks: 0
Blocks with corrupt replicas: 0
Missing blocks: 0
Datanodes available: 0 (0 total, 0 dead)
为此,我构建了openstack 3 vms ubuntu,一个用于master和其他奴隶。 中高手,它在etc/hosts
127.0.0.1 localhost
50.50.1.9 ubuntu-378e53c1-3e1f-4f6e-904d-00ef078fe3f8
50.50.1.8 slave1
50.50.1.4 slave2
核心的site.xml建立
<name>fs.default.name</name>
<value>hdfs://ubuntu-378e53c1-3e1f-4f6e-904d-00ef078fe3f8:9000</value>
<name>hadoop.tmp.dir</name>
<value>/home/ubuntu/hadoop-2.2.0/tmp</value>
HDFS-site.xml中
<name>dfs.replication</name>
<value>3</value>
<name>dfs.namenode.name.dir</name>
<value>file:/home/ubuntu/hadoop-2.2.0/etc/hdfs/namenode</value>
<name>dfs.datanode.data.dir</name>
<value>file:/home/ubuntu/hadoop-2.2.0/etc/hdfs/datanode</value>
<name>dfs.permissions</name>
<value>false</value>
mapred-site.xml中
<name>mapreduce.framework.name</name>
<value>yarn</value>
A nd我的奴隶vm文件包含每一行:slave1和slave2。
所有的主 VM日志中没有错误,但是当我使用从虚拟机,它给出了错误连接。和节点管理器给了我太多的错误日志中:
Error starting NodeManager org.apache.hadoop.yarn.exceptions.YarnRuntimeException: java.net.ConnectException: Call From ubuntu-e6df65dc-bf95-45ca-bad5-f8ddcc272b76/50.50.1.8 to 0.0.0.0:8031 failed on connection exception: java.net.ConnectException: Connection refused;
从我从机: 核心的site.xml
<name>fs.default.name</name>
<value>hdfs://ubuntu-378e53c1-3e1f-4f6e-904d-00ef078fe3f8:9000</value>
<name>hadoop.tmp.dir</name>
<value>/home/ubuntu/hadoop-2.2.0/tmp</value>
HDFS-site.xml中
<name>dfs.namenode.name.dir</name>
<value>file:/home/ubuntu/hadoop-2.2.0/etc/hdfs/namenode</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>file:/home/ubuntu/hadoop-2.2.0/etc/hdfs/datanode</value>
和我的/ etc/hosts
127.0.0.1 localhost
50.50.1.8 ubuntu-e6df65dc-bf95-45ca-bad5-f8ddcc272b76
50.50.1.9 ubuntu-378e53c1-3e1f-4f6e-904d-00ef078fe3f8
的JPS 主
15863 ResourceManager
15205 SecondaryNameNode
14967 NameNode
16194 Jps
从属
1988 Jps
1365 DataNode
1894 NodeManager
原因所有错误表示,这下面误差的主要原因未能掌握连接至从属:
Error starting NodeManager org.apache.hadoop.yarn.exceptions.YarnRuntimeException: java.net.ConnectException: Call From ubuntu-e6df65dc-bf95-45ca-bad5-f8ddcc272b76/50.50.1.8 to 0.0.0.0:8031 failed on connection exception: java.net.ConnectException: Connection refused;
基本上,0.0.0.0:8031
是yarn.resourcemanager.resource-tracker.address
的端口,所以我使用lsof -i:8031进行检查,端口未启用/打开/允许。由于我使用OpenStack(云),添加了8031和显示错误和voilá的其他端口,按照打算工作。
你能在你的答案中更详细吗? –
编辑我的答案,我希望它能帮助你。之所以给我0个节点,是因为主机没有连接到从机,所以必须检查日志显示的端口。 – fsi
我挣扎了很多,终于在使用“systemctl stop firewalld”之前,我也禁用了selinux和ipv6。
在我的情况下,我使用hdfs datanode -format来格式化datanode服务器,hdfs namenode -format来格式化datanode服务器。在此之前,请确保删除包含在hdfs-site文件中的数据文件夹中的所有文件。
“从ubuntu-e6df65dc-bf95-45ca-bad5-f8ddcc272b76/50.50.1.8调用到0.0.0.0:8031失败” - 为什么它试图连接0.0.0.0? – Suman
它应该连接到50.50.1.9? – fsi