开发者社区> 问答> 正文

MaxCompute Spark中可能出现OOM的情况是啥?

MaxCompute Spark中可能出现OOM的情况是啥?

展开
收起
bnbajjyhyjfty 2021-12-12 17:31:24 743 0
1 条回答
写回答
取消 提交回答
  • 错误1:在某些Executor中出现Cannotallocatememory,一般是系统内存不足,此时可以调整sparkyarn.executormemoryOverhead参数,注意该参数是会计算到总内存数的,也不需要一次性增加太多,小心调整即可

    。错误2:Executor抛出javalangOutOfMemoryError;Java heap space

    错误3:GCoverhead limit exceeded

    。错误4:Noroute to host workerd*********/Could not find CoarseGrainedScheduler,这类错误一 般是一些Executor提前退出。如果一个task处理的数据非常大,容易发生OOM

    2021-12-12 17:33:17
    赞同 展开评论 打赏
问答排行榜
最热
最新

相关电子书

更多
Data+AI时代大数据平台应该如何建设 立即下载
大数据AI一体化的解读 立即下载
极氪大数据 Serverless 应用实践 立即下载