欢迎来真孝善网,为您提供真孝善正能量书籍故事!

解决Hadoop频繁格式化问题:导致DataNode无法启动的常见故障分析

时间:11-22 名人轶事 提交错误

今天给各位分享解决Hadoop频繁格式化问题:导致DataNode无法启动的常见故障分析的知识,其中也会对进行解释,如果能碰巧解决你现在面临的问题,别忘了关注本站,现在开始吧!

在org.apache.hadoop.hdfs.server.datanode.DataStorage.addStorageLocations(DataStorage.java:388)

在org.apache.hadoop.hdfs.server.datanode.DataStorage.recoverTransitionRead(DataStorage.java:556)

在org.apache.hadoop.hdfs.server.datanode.DataNode.initStorage(DataNode.java:1566)

在org.apache.hadoop.hdfs.server.datanode.DataNode.initBlockPool(DataNode.java:1527)

在org.apache.hadoop.hdfs.server.datanode.BPOfferService.verifyAndSetNamespaceInfo(BPOfferService.java:327)

在org.apache.hadoop.hdfs.server.datanode.BPServiceActor.connectToNNAndHandshake(BPServiceActor.java:266)

在org.apache.hadoop.hdfs.server.datanode.BPServiceActor.run(BPServiceActor.java:746)

在java.lang.Thread.run(Thread.java:745)

2017-12-14 05:07:58,922 错误org.apache.hadoop.hdfs.server.datanode.DataNode: 块池(Datanode Uuid 63404450-ed85-4636-8eac-ea75dba1d424)服务初始化失败到hadoop/192.16 8.137 .5:9000。退出。

java.io.IOException: 所有指定的目录加载失败。

在org.apache.hadoop.hdfs.server.datanode.DataStorage.recoverTransitionRead(DataStorage.java:557)

在org.apache.hadoop.hdfs.server.datanode.DataNode.initStorage(DataNode.java:1566)

在org.apache.hadoop.hdfs.server.datanode.DataNode.initBlockPool(DataNode.java:1527)

在org.apache.hadoop.hdfs.server.datanode.BPOfferService.verifyAndSetNamespaceInfo(BPOfferService.java:327)

在org.apache.hadoop.hdfs.server.datanode.BPServiceActor.connectToNNAndHandshake(BPServiceActor.java:266)

在org.apache.hadoop.hdfs.server.datanode.BPServiceActor.run(BPServiceActor.java:746)

在java.lang.Thread.run(Thread.java:745)

注意

/tmp/hadoop-hadoop/dfs/data: namenode clusterID=CID-c80f243c-4a07-43f3-9eb8-f40d164a4520 中不兼容的clusterID; datanode clusterID=CID-3e6 fcd99 -a2fe-42f3-9ccf-bc257a065eb3

1 可以看到namenode的clusterID和datanode的clusterID不一样,导致启动失败。原因是我们多次格式化namenode,导致两个ID不同而无法启动。

解决方案

0.20.2版本解决方案

1、查看name节点上/usr/hadoop0.20.2/hadoop-huanghz/dfs/name/current/文件夹下的VERSION文件中的namespaceid(即配置文件中配置的hadoop.tmp.dir参数路径) );

2、修改两个数据节点上dfs.data.dir配置的路径下当前文件夹中VERSION文件的namespaceid与name节点一致。 2.x版本中的解决方案

/数据/hadoop/dfs/名称/当前/版本

使用name下的clusterID修改datanode的/data/hadoop/dfs/data/current/VERSION中的clusterID。

每次格式化时,name下的VERSION的clusterID都会生成一个新的ID。需要修改各节点VERSION的clusterID。

……/dfs/数据/当前

存储ID=DS-1959445666-10.161.138.100-50010-1386493413986

clusterID=CID-64a3a726-29e4-4d80-86a6-035ef33a225b

c时间=0

存储类型=DATA_NODE

布局版本=-47

……/dfs/名称/当前/版本

#2014 年1 月3 日星期五10:37:48 CST

命名空间ID=1667984727

clusterID=CID-42c6d540-c3ca-44df-95e8-01a6d87effb5

c时间=0

存储类型=NAME_NODE

如果你还想了解更多这方面的信息,记得收藏关注本站。

用户评论

关于道别

我遇到过类似问题,真的超级卡!

    有13位网友表示赞同!

纯真ブ已不复存在

看来格式化次数太多对Datanode是有风险的。

    有14位网友表示赞同!

岁岁年年

我的Hadoop集群一直运行得很好,没遇到过这个问题。

    有17位网友表示赞同!

烟雨离殇

这篇文章能不能说说怎么解决这个问题?

    有5位网友表示赞同!

闲肆

如果格式化过多真的会伤到Datanode吗?

    有19位网友表示赞同!

墨染年华

看来要管控一下Hadoop的格式化次数啊!

    有10位网友表示赞同!

志平

有没有什么替代方案可以避免频繁格式化?

    有16位网友表示赞同!

陌上花

想问问这种情况下日志有什么样的提示信息?

    有17位网友表示赞同!

我家的爱豆是怪比i

我之前也遇到过集群无法启动的问题,好复杂啊!

    有12位网友表示赞同!

男神大妈

学习Hadoop还是要多阅读文章,积累经验呢。

    有15位网友表示赞同!

孤自凉丶

这篇文章提醒我了,下次要记得控制格式化次数。

    有6位网友表示赞同!

容纳我ii

Datanode维护确实是一个重要的环节!

    有6位网友表示赞同!

太易動情也是罪名

看来hadoop集群的管理还是很有学问的。

    有5位网友表示赞同!

羁绊你

Hadoop学习真是不容易!

    有13位网友表示赞同!

黑夜漫长

希望会有更详细的解决方案分享。

    有20位网友表示赞同!

心脏偷懒

文章提到的错误我记得发生过,确实很难解决啊!

    有7位网友表示赞同!

沐晴つ

这种问题遇到得多积累经验才能应对得当吧!

    有5位网友表示赞同!

半世晨晓。

Hadoop的数据管理真是越来越复杂了!

    有18位网友表示赞同!

半梦半醒i

这篇文章很有用,感谢分享!

    有12位网友表示赞同!

爱你的小笨蛋

以后遇到类似问题可以参考一下这篇文章。

    有16位网友表示赞同!

【解决Hadoop频繁格式化问题:导致DataNode无法启动的常见故障分析】相关文章:

1.蛤蟆讨媳妇【哈尼族民间故事】

2.米颠拜石

3.王羲之临池学书

4.清代敢于创新的“浓墨宰相”——刘墉

5.“巧取豪夺”的由来--米芾逸事

6.荒唐洁癖 惜砚如身(米芾逸事)

7.拜石为兄--米芾逸事

8.郑板桥轶事十则

9.王献之被公主抢亲后的悲惨人生

10.史上真实张三丰:在棺材中竟神奇复活