Hadoop Datanode奴隶没有连接到我的主人

问题描述:

由于很多错误,我无法弄清楚为什么它没有将datanode奴隶vm连接到我的主vm。任何建议是受欢迎的,所以我可以尝试。 并开始,其中之一就是这个错误在我的奴隶VM日志:Hadoop Datanode奴隶没有连接到我的主人

WARN org.apache.hadoop.hdfs.server.datanode.DataNode: Problem connecting to server: ubuntu-378e53c1-3e1f-4f6e-904d-00ef078fe3f8:9000 

正因为如此,我不能运行我想在我的主VM的工作:

hadoop jar ./share/hadoop/mapreduce/hadoop-mapreduce-examples-2.2.0.jar pi 2 5 

这给我这个错误

org.apache.hadoop.ipc.RemoteException(java.io.IOException): File /user/ubuntu/QuasiMonteCarlo_1386793331690_1605707775/in/part0 could only be replicated to 0 nodes instead of minReplication (=1). There are 0 datanode(s) running and no node(s) are excluded in this operation. 

即使如此,该hdfs dfsadmin -report(在主机VM)给了我所有的0

Configured Capacity: 0 (0 B) 
Present Capacity: 0 (0 B) 
DFS Remaining: 0 (0 B) 
DFS Used: 0 (0 B) 
DFS Used%: NaN% 
Under replicated blocks: 0 
Blocks with corrupt replicas: 0 
Missing blocks: 0 
Datanodes available: 0 (0 total, 0 dead) 

为此,我构建了openstack 3 vms ubuntu,一个用于master和其他奴隶。 中高手,它在etc/hosts

127.0.0.1 localhost 
50.50.1.9 ubuntu-378e53c1-3e1f-4f6e-904d-00ef078fe3f8 
50.50.1.8 slave1 
50.50.1.4 slave2 

核心的site.xml建立

<name>fs.default.name</name> 
<value>hdfs://ubuntu-378e53c1-3e1f-4f6e-904d-00ef078fe3f8:9000</value> 
<name>hadoop.tmp.dir</name> 
<value>/home/ubuntu/hadoop-2.2.0/tmp</value> 

HDFS-site.xml中

<name>dfs.replication</name> 
<value>3</value> 
<name>dfs.namenode.name.dir</name> 
<value>file:/home/ubuntu/hadoop-2.2.0/etc/hdfs/namenode</value> 
<name>dfs.datanode.data.dir</name> 
<value>file:/home/ubuntu/hadoop-2.2.0/etc/hdfs/datanode</value> 
<name>dfs.permissions</name> 
<value>false</value> 

mapred-site.xml中

<name>mapreduce.framework.name</name> 
<value>yarn</value> 

A nd我的奴隶vm文件包含每一行:slave1和slave2。

所有的主 VM日志中没有错误,但是当我使用从虚拟机,它给出了错误连接。和节点管理器给了我太多的错误日志中:

Error starting NodeManager org.apache.hadoop.yarn.exceptions.YarnRuntimeException: java.net.ConnectException: Call From ubuntu-e6df65dc-bf95-45ca-bad5-f8ddcc272b76/50.50.1.8 to 0.0.0.0:8031 failed on connection exception: java.net.ConnectException: Connection refused; 

从我从机: 核心的site.xml

<name>fs.default.name</name> 
<value>hdfs://ubuntu-378e53c1-3e1f-4f6e-904d-00ef078fe3f8:9000</value> 
<name>hadoop.tmp.dir</name> 
<value>/home/ubuntu/hadoop-2.2.0/tmp</value> 

HDFS-site.xml中

<name>dfs.namenode.name.dir</name> 
<value>file:/home/ubuntu/hadoop-2.2.0/etc/hdfs/namenode</value> 
</property> 
<property> 
<name>dfs.datanode.data.dir</name> 
<value>file:/home/ubuntu/hadoop-2.2.0/etc/hdfs/datanode</value> 

和我的/ etc/hosts

127.0.0.1 localhost 
50.50.1.8 ubuntu-e6df65dc-bf95-45ca-bad5-f8ddcc272b76 
50.50.1.9 ubuntu-378e53c1-3e1f-4f6e-904d-00ef078fe3f8 

的JPS 主

15863 ResourceManager 
15205 SecondaryNameNode 
14967 NameNode 
16194 Jps 

从属

1988 Jps 
1365 DataNode 
1894 NodeManager 
+0

“从ubuntu-e6df65dc-bf95-45ca-bad5-f8ddcc272b76/50.50.1.8调用到0.0.0.0:8031失败” - 为什么它试图连接0.0.0.0? – Suman

+0

它应该连接到50.50.1.9? – fsi

原因所有错误表示,这下面误差的主要原因未能掌握连接至从属:

Error starting NodeManager org.apache.hadoop.yarn.exceptions.YarnRuntimeException: java.net.ConnectException: Call From ubuntu-e6df65dc-bf95-45ca-bad5-f8ddcc272b76/50.50.1.8 to 0.0.0.0:8031 failed on connection exception: java.net.ConnectException: Connection refused; 

基本上,0.0.0.0:8031yarn.resourcemanager.resource-tracker.address的端口,所以我使用lsof -i:8031进行检查,端口未启用/打开/允许。由于我使用OpenStack(云),添加了8031和显示错误和voilá的其他端口,按照打算工作。

+0

你能在你的答案中更详细吗? –

+0

编辑我的答案,我希望它能帮助你。之所以给我0个节点,是因为主机没有连接到从机,所以必须检查日志显示的端口。 – fsi

我挣扎了很多,终于在使用“systemctl stop firewalld”之前,我也禁用了selinux和ipv6。

在我的情况下,我使用hdfs datanode -format来格式化datanode服务器,hdfs namenode -format来格式化datanode服务器。在此之前,请确保删除包含在hdfs-site文件中的数据文件夹中的所有文件。