Hadoop 单节点启动没问题,但是打开日志却有部分少许的错误,大哥大姐求帮忙

狂奔啦蜗牛 发布于 2016/03/05 22:22
阅读 830
收藏 0

各位大哥大姐求帮忙!!!!

Hadoop 单节点环境搭建,详细看log日志,去发现有少许的问题


2016-03-03 06:28:57,780 INFO org.apache.hadoop.hdfs.server.datanode.DataNode: Got finalize command for block pool BP-1059185839-127.0.1.1-1457015126665
2016-03-03 06:37:46,770 ERROR org.apache.hadoop.hdfs.server.datanode.DataNode: RECEIVED SIGNAL 15: SIGTERM
2016-03-03 06:37:46,810 INFO org.apache.hadoop.hdfs.server.datanode.DataNode: SHUTDOWN_MSG:


2016-03-03 18:45:46,194 WARN org.apache.hadoop.hdfs.server.common.Storage: java.io.IOException: Incompatible clusterIDs in /usr/local/hadoop/tmp/dfs/data: namenode clusterID = CID-6d64f184-67b9-4a04-bb32-2426c0d4ee0a; datanode clusterID = CID-4836081c-cacf-4330-bc40-b7760dc24d3d
2016-03-03 18:45:46,195 FATAL org.apache.hadoop.hdfs.server.datanode.DataNode: Initialization failed for Block pool <registering> (Datanode Uuid unassigned) service to localhost/127.0.0.1:9000. Exiting.
java.io.IOException: All specified directories are failed to load.
    at org.apache.hadoop.hdfs.server.datanode.DataStorage.recoverTransitionRead(DataStorage.java:478)
    at org.apache.hadoop.hdfs.server.datanode.DataNode.initStorage(DataNode.java:1358)
    at org.apache.hadoop.hdfs.server.datanode.DataNode.initBlockPool(DataNode.java:1323)
    at org.apache.hadoop.hdfs.server.datanode.BPOfferService.verifyAndSetNamespaceInfo(BPOfferService.java:317)
    at org.apache.hadoop.hdfs.server.datanode.BPServiceActor.connectToNNAndHandshake(BPServiceActor.java:223)
    at org.apache.hadoop.hdfs.server.datanode.BPServiceActor.run(BPServiceActor.java:802)
    at java.lang.Thread.run(Thread.java:745)

也有人说是namenode 和datanode两者的ID不一样引起的,如果是这样应该如何操作何以让二者的ID永远都一样   拜谢各位大哥大姐,求帮忙

加载中
0
翟志军
翟志军

为什么我搭建时没有什么UUID的不同的问题。

你应该把你的配置放出来,我们才好知道哪里错了。单从log看不出

狂奔啦蜗牛
狂奔啦蜗牛
大哥 你要看什么配置 方便留个联系方式吗
返回顶部
顶部