欢迎来真孝善网,为您提供真孝善正能量书籍故事!

Hue Oozie Shell Sqoop 任务执行失败:处理元信息错误

时间:10-28 现代故事 提交错误
在org.apache.hadoop.mapreduce.v2.app.job.impl.JobImpl$InitTransition.createSplits(JobImpl.java:1585) 在org.apache.hadoop.mapreduce.v2.app.job.impl.JobImpl$InitTransition.transition(JobImpl.java:1449) 在org.apache.hadoop.mapreduce.v2.app.job.impl.JobImpl$InitTransition.transition(JobImpl.java:1407) 在org.apache.hadoop.yarn.state.StateMachineFactory$MultipleInternalArc.doTransition(StateMachineFactory.java:385) 在org.apache.hadoop.yarn.state.StateMachineFactory.doTransition(StateMachineFactory.java:302) 在org.apache.hadoop.yarn.state.StateMachineFactory.access$300(StateMachineFactory.java:46) 在org.apache.hadoop.yarn.state.StateMachineFactory$InternalStateMachine.doTransition(StateMachineFactory.java:448) 在org.apache.hadoop.mapreduce.v2.app.job.impl.JobImpl.handle(JobImpl.java:1001)

在org.apache.hadoop.mapreduce.v2.app.job.impl.JobImpl.handle(JobImpl.java:138) 在org.apache.hadoop.mapreduce.v2.app.MRAppMaster$JobEventDispatcher.handle(MRAppMaster.java:1366) 在org.apache.hadoop.mapreduce.v2.app.MRAppMaster.serviceStart(MRAppMaster.java:1142) 在org.apache.hadoop.service.AbstractService.start(AbstractService.java:193) 在org.apache.hadoop.mapreduce.v2.app.MRAppMaster$5.run(MRAppMaster.java:1573) 在java.security.AccessController.doPrivileged(本机方法) 在javax.security.auth.Subject.doAs(Subject.java:422) 在org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1917)

在org.apache.hadoop.mapreduce.v2.app.MRAppMaster.initAndStartAppMaster(MRAppMaster.java:1569) 在org.apache.hadoop.mapreduce.v2.app.MRAppMaster.main(MRAppMaster.java:1502) 引起: java.io.FileNotFoundException: 文件不存在: hdfs://hadoop02:8020/user/hdfs/.staging/job_1516274414442_1286/job.splitmetainfo 在org.apache.hadoop.hdfs.DistributedFileSystem$20.doCall(DistributedFileSystem.java:1266) 在org.apache.hadoop.hdfs.DistributedFileSystem$20.doCall(DistributedFileSystem.java:1258) 在org.apache.hadoop.fs.FileSystemLinkResolver.resolve(FileSystemLinkResolver.java:81) 在org.apache.hadoop.hdfs.DistributedFileSystem.getFileStatus(DistributedFileSystem.java:1258) 在org.apache.hadoop.mapreduce.split.SplitMetaInfoReader.readSplitMetaInfo(SplitMetaInfoReader.java:51)

用户评论

在哪跌倒こ就在哪躺下

我的任务也是这样啊!每次运行Sqoop就出这个错误,不知道是咋回事。

    有12位网友表示赞同!

青瓷清茶倾城歌

这跟什么shell版本有关吗?我这里用的是Hue Ooze,好像没见过这种问题...

    有9位网友表示赞同!

冷月花魂

job.splitmetainfo是个啥东西来着?有人能解释下这个报错信息吗?

    有10位网友表示赞同!

我要变勇敢℅℅

感觉Sqoop的任务提交有点不稳定啊,经常会出一些莫名其妙的错。

    有15位网友表示赞同!

不要冷战i

是不是数据格式有问题?试着把数据转换一下看看

    有6位网友表示赞同!

容纳我ii

我遇到过类似的问题,可能是表结构不对劲儿导致的,可以检查一下表 Schema 。

    有20位网友表示赞同!

景忧丶枫涩帘淞幕雨

有没有人知道怎么解决这个job.splitmetainfo错误呀?求救!

    有19位网友表示赞同!

你的眸中有星辰

这问题会不会是配置的问题呢?看看Sqoop的配置文件里边有没有什么需要设置的地方。

    有6位网友表示赞同!

轨迹!

我之前用的是其他的数据迁移工具,好像没这种问题,sqoop真的太麻烦了...

    有6位网友表示赞同!

南初

有没有大神能帮我分析一下这个错误信息里的splitmetainfo是什么意思?

    有9位网友表示赞同!

太易動情也是罪名

会不会是网络问题导致的?试试重新连接下网络看看。

    有12位网友表示赞同!

歆久

我的Hue版本和shell版本都是最新的,也试过重启服务,但还是没用...

    有18位网友表示赞同!

此刻不是了i

也许是因为存储空间不够?检查一下是否还有足够的磁盘空间可用。

    有13位网友表示赞同!

请在乎我1秒

是不是任务本身太大,导致提交失败? 尝试分成一个个小任务来执行

    有11位网友表示赞同!

何必锁我心

我感觉Hue Ooize Shell可能不太适合处理这么大的数据迁移任务...

    有15位网友表示赞同!

夏日倾情

有没有什么其他工具可以推荐一下?能帮我们更方便地完成数据迁移任务。

    有12位网友表示赞同!

暮光薄凉

看来这个错误信息实在太抽象了,需要更多具体的信息才能定位问题...

    有12位网友表示赞同!

夜晟洛

我搜了一下资料,好像有人提到了这个问题是Sqoop的Bug?

    有13位网友表示赞同!

那伤。眞美

如果有官方文档或者技术支持渠道的话,就赶紧找他们咨询一下吧!

    有9位网友表示赞同!

【Hue Oozie Shell Sqoop 任务执行失败:处理元信息错误】相关文章:

1.蛤蟆讨媳妇【哈尼族民间故事】

2.米颠拜石

3.王羲之临池学书

4.清代敢于创新的“浓墨宰相”——刘墉

5.“巧取豪夺”的由来--米芾逸事

6.荒唐洁癖 惜砚如身(米芾逸事)

7.拜石为兄--米芾逸事

8.郑板桥轶事十则

9.王献之被公主抢亲后的悲惨人生

10.史上真实张三丰:在棺材中竟神奇复活