开发者社区> 问答> 正文

E-MapReduce跑spark作业出现Exit code: 50问题

已解决

Stack trace: ExitCodeException exitCode=50:

    at org.apache.hadoop.util.Shell.runCommand(Shell.java:545)
    at org.apache.hadoop.util.Shell.run(Shell.java:456)
    at org.apache.hadoop.util.Shell$ShellCommandExecutor.execute(Shell.java:722)
    at org.apache.hadoop.yarn.server.nodemanager.DefaultContainerExecutor.launchContainer(DefaultContainerExecutor.java:212)
    at org.apache.hadoop.yarn.server.nodemanager.containermanager.launcher.ContainerLaunch.call(ContainerLaunch.java:302)
    at org.apache.hadoop.yarn.server.nodemanager.containermanager.launcher.ContainerLaunch.call(ContainerLaunch.java:82)
    at java.util.concurrent.FutureTask.run(FutureTask.java:266)
    at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1142)
    at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:617)
    at java.lang.Thread.run(Thread.java:745)

展开
收起
计算爱好者 2016-08-16 20:53:29 14412 0
1 条回答
写回答
取消 提交回答
  • 采纳回答

    这是调用spark时返回的错误。查看spark代码可只 50错误码对应SparkExitCode.UNCAUGHT_EXCEPTION. 是spark执行时出异常了。
    可以具体查看container日志看看,是什么异常。一般会出现java.lang.ClassNotFoundException ,java.lang.NoClassDefFoundError 等等问题。具体问题具体分析。

    2019-07-17 20:03:59
    赞同 展开评论 打赏
问答排行榜
最热
最新

相关电子书

更多
Hybrid Cloud and Apache Spark 立即下载
Scalable Deep Learning on Spark 立即下载
Comparison of Spark SQL with Hive 立即下载