在org.apache.hadoop.mapreduce.v2.app.job.impl.JobImpl$InitTransition.createSplits(JobImpl.java:1585)
在org.apache.hadoop.mapreduce.v2.app.job.impl.JobImpl$InitTransition.transition(JobImpl.java:1449)
在org.apache.hadoop.mapreduce.v2.app.job.impl.JobImpl$InitTransition.transition(JobImpl.java:1407)
在org.apache.hadoop.yarn.state.StateMachineFactory$MultipleInternalArc.doTransition(StateMachineFactory.java:385)
在org.apache.hadoop.yarn.state.StateMachineFactory.doTransition(StateMachineFactory.java:302)
在org.apache.hadoop.yarn.state.StateMachineFactory.access$300(StateMachineFactory.java:46)
在org.apache.hadoop.yarn.state.StateMachineFactory$InternalStateMachine.doTransition(StateMachineFactory.java:448)
在org.apache.hadoop.mapreduce.v2.app.job.impl.JobImpl.handle(JobImpl.java:1001)
在org.apache.hadoop.mapreduce.v2.app.job.impl.JobImpl.handle(JobImpl.java:138)
在org.apache.hadoop.mapreduce.v2.app.MRAppMaster$JobEventDispatcher.handle(MRAppMaster.java:1366)
在org.apache.hadoop.mapreduce.v2.app.MRAppMaster.serviceStart(MRAppMaster.java:1142)
在org.apache.hadoop.service.AbstractService.start(AbstractService.java:193)
在org.apache.hadoop.mapreduce.v2.app.MRAppMaster$5.run(MRAppMaster.java:1573)
在java.security.AccessController.doPrivileged(本机方法)
在javax.security.auth.Subject.doAs(Subject.java:422)
在org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1917)
在org.apache.hadoop.mapreduce.v2.app.MRAppMaster.initAndStartAppMaster(MRAppMaster.java:1569)
在org.apache.hadoop.mapreduce.v2.app.MRAppMaster.main(MRAppMaster.java:1502)
引起: java.io.FileNotFoundException: 文件不存在: hdfs://hadoop02:8020/user/hdfs/.staging/job_1516274414442_1286/job.splitmetainfo
在org.apache.hadoop.hdfs.DistributedFileSystem$20.doCall(DistributedFileSystem.java:1266)
在org.apache.hadoop.hdfs.DistributedFileSystem$20.doCall(DistributedFileSystem.java:1258)
在org.apache.hadoop.fs.FileSystemLinkResolver.resolve(FileSystemLinkResolver.java:81)
在org.apache.hadoop.hdfs.DistributedFileSystem.getFileStatus(DistributedFileSystem.java:1258)
在org.apache.hadoop.mapreduce.split.SplitMetaInfoReader.readSplitMetaInfo(SplitMetaInfoReader.java:51)
【Hue Oozie Shell Sqoop 任务执行失败:处理元信息错误】相关文章:
1.蛤蟆讨媳妇【哈尼族民间故事】
2.米颠拜石
3.王羲之临池学书
4.清代敢于创新的“浓墨宰相”——刘墉
5.“巧取豪夺”的由来--米芾逸事
6.荒唐洁癖 惜砚如身(米芾逸事)
7.拜石为兄--米芾逸事
8.郑板桥轶事十则
9.王献之被公主抢亲后的悲惨人生
10.史上真实张三丰:在棺材中竟神奇复活
用户评论
我的任务也是这样啊!每次运行Sqoop就出这个错误,不知道是咋回事。
有12位网友表示赞同!
这跟什么shell版本有关吗?我这里用的是Hue Ooze,好像没见过这种问题...
有9位网友表示赞同!
job.splitmetainfo是个啥东西来着?有人能解释下这个报错信息吗?
有10位网友表示赞同!
感觉Sqoop的任务提交有点不稳定啊,经常会出一些莫名其妙的错。
有15位网友表示赞同!
是不是数据格式有问题?试着把数据转换一下看看
有6位网友表示赞同!
我遇到过类似的问题,可能是表结构不对劲儿导致的,可以检查一下表 Schema 。
有20位网友表示赞同!
有没有人知道怎么解决这个job.splitmetainfo错误呀?求救!
有19位网友表示赞同!
这问题会不会是配置的问题呢?看看Sqoop的配置文件里边有没有什么需要设置的地方。
有6位网友表示赞同!
我之前用的是其他的数据迁移工具,好像没这种问题,sqoop真的太麻烦了...
有6位网友表示赞同!
有没有大神能帮我分析一下这个错误信息里的splitmetainfo是什么意思?
有9位网友表示赞同!
会不会是网络问题导致的?试试重新连接下网络看看。
有12位网友表示赞同!
我的Hue版本和shell版本都是最新的,也试过重启服务,但还是没用...
有18位网友表示赞同!
也许是因为存储空间不够?检查一下是否还有足够的磁盘空间可用。
有13位网友表示赞同!
是不是任务本身太大,导致提交失败? 尝试分成一个个小任务来执行
有11位网友表示赞同!
我感觉Hue Ooize Shell可能不太适合处理这么大的数据迁移任务...
有15位网友表示赞同!
有没有什么其他工具可以推荐一下?能帮我们更方便地完成数据迁移任务。
有12位网友表示赞同!
看来这个错误信息实在太抽象了,需要更多具体的信息才能定位问题...
有12位网友表示赞同!
我搜了一下资料,好像有人提到了这个问题是Sqoop的Bug?
有13位网友表示赞同!
如果有官方文档或者技术支持渠道的话,就赶紧找他们咨询一下吧!
有9位网友表示赞同!