在org.apache.hadoop.mapreduce.v2.app.job.impl.JobImpl$InitTransition.createSplits(JobImpl.java:1585)
在org.apache.hadoop.mapreduce.v2.app.job.impl.JobImpl$InitTransition.transition(JobImpl.java:1449)
在org.apache.hadoop.mapreduce.v2.app.job.impl.JobImpl$InitTransition.transition(JobImpl.java:1407)
在org.apache.hadoop.yarn.state.StateMachineFactory$MultipleInternalArc.doTransition(StateMachineFactory.java:385)
在org.apache.hadoop.yarn.state.StateMachineFactory.doTransition(StateMachineFactory.java:302)
在org.apache.hadoop.yarn.state.StateMachineFactory.access$300(StateMachineFactory.java:46)
在org.apache.hadoop.yarn.state.StateMachineFactory$InternalStateMachine.doTransition(StateMachineFactory.java:448)
在org.apache.hadoop.mapreduce.v2.app.job.impl.JobImpl.handle(JobImpl.java:1001)

在org.apache.hadoop.mapreduce.v2.app.job.impl.JobImpl.handle(JobImpl.java:138)
在org.apache.hadoop.mapreduce.v2.app.MRAppMaster$JobEventDispatcher.handle(MRAppMaster.java:1366)
在org.apache.hadoop.mapreduce.v2.app.MRAppMaster.serviceStart(MRAppMaster.java:1142)
在org.apache.hadoop.service.AbstractService.start(AbstractService.java:193)
在org.apache.hadoop.mapreduce.v2.app.MRAppMaster$5.run(MRAppMaster.java:1573)
在java.security.AccessController.doPrivileged(本机方法)
在javax.security.auth.Subject.doAs(Subject.java:422)
在org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1917)

在org.apache.hadoop.mapreduce.v2.app.MRAppMaster.initAndStartAppMaster(MRAppMaster.java:1569)
在org.apache.hadoop.mapreduce.v2.app.MRAppMaster.main(MRAppMaster.java:1502)
引起: java.io.FileNotFoundException: 文件不存在: hdfs://hadoop02:8020/user/hdfs/.staging/job_1516274414442_1286/job.splitmetainfo
在org.apache.hadoop.hdfs.DistributedFileSystem$20.doCall(DistributedFileSystem.java:1266)
在org.apache.hadoop.hdfs.DistributedFileSystem$20.doCall(DistributedFileSystem.java:1258)
在org.apache.hadoop.fs.FileSystemLinkResolver.resolve(FileSystemLinkResolver.java:81)
在org.apache.hadoop.hdfs.DistributedFileSystem.getFileStatus(DistributedFileSystem.java:1258)
在org.apache.hadoop.mapreduce.split.SplitMetaInfoReader.readSplitMetaInfo(SplitMetaInfoReader.java:51)
【Hue Oozie Shell Sqoop 任务执行失败:处理元信息错误】相关文章:
1.动物故事精选:寓教于乐的儿童故事宝库
2.《寓教于乐:精选动物故事助力儿童成长》
3.探索动物旅行的奇幻冒险:专为儿童打造的童话故事
4.《趣味动物刷牙小故事》
5.探索坚韧之旅:小蜗牛的勇敢冒险
6.传统风味烤小猪,美食探索之旅
7.探索奇幻故事:大熊的精彩篇章
8.狮子与猫咪的奇妙邂逅:一场跨界的友谊故事
9.揭秘情感的力量:如何影响我们的生活与决策
10.跨越两岸:探索彼此的独特世界
用户评论
我的任务也是这样啊!每次运行Sqoop就出这个错误,不知道是咋回事。
有12位网友表示赞同!
这跟什么shell版本有关吗?我这里用的是Hue Ooze,好像没见过这种问题...
有9位网友表示赞同!
job.splitmetainfo是个啥东西来着?有人能解释下这个报错信息吗?
有10位网友表示赞同!
感觉Sqoop的任务提交有点不稳定啊,经常会出一些莫名其妙的错。
有15位网友表示赞同!
是不是数据格式有问题?试着把数据转换一下看看
有6位网友表示赞同!
我遇到过类似的问题,可能是表结构不对劲儿导致的,可以检查一下表 Schema 。
有20位网友表示赞同!
有没有人知道怎么解决这个job.splitmetainfo错误呀?求救!
有19位网友表示赞同!
这问题会不会是配置的问题呢?看看Sqoop的配置文件里边有没有什么需要设置的地方。
有6位网友表示赞同!
我之前用的是其他的数据迁移工具,好像没这种问题,sqoop真的太麻烦了...
有6位网友表示赞同!
有没有大神能帮我分析一下这个错误信息里的splitmetainfo是什么意思?
有9位网友表示赞同!
会不会是网络问题导致的?试试重新连接下网络看看。
有12位网友表示赞同!
我的Hue版本和shell版本都是最新的,也试过重启服务,但还是没用...
有18位网友表示赞同!
也许是因为存储空间不够?检查一下是否还有足够的磁盘空间可用。
有13位网友表示赞同!
是不是任务本身太大,导致提交失败? 尝试分成一个个小任务来执行
有11位网友表示赞同!
我感觉Hue Ooize Shell可能不太适合处理这么大的数据迁移任务...
有15位网友表示赞同!
有没有什么其他工具可以推荐一下?能帮我们更方便地完成数据迁移任务。
有12位网友表示赞同!
看来这个错误信息实在太抽象了,需要更多具体的信息才能定位问题...
有12位网友表示赞同!
我搜了一下资料,好像有人提到了这个问题是Sqoop的Bug?
有13位网友表示赞同!
如果有官方文档或者技术支持渠道的话,就赶紧找他们咨询一下吧!
有9位网友表示赞同!