开发者社区> 问答> 正文

spark的配置,executor.memoryOverhead这部分内存究竟是干嘛的?

请教个问题,spark的配置,executor.memoryOverhead这部分内存究竟是干嘛的?

文档上说vm overheads 之类的,没明白。

本问题来自阿里云开发者社区的【11大垂直技术领域开发者社群】。https://developer.aliyun.com/article/706511 点击链接欢迎加入感兴趣的技术领域群。

展开
收起
初商 2019-08-14 16:04:18 10995 0
1 条回答
写回答
取消 提交回答
  • 1.阿里云大学讲师,主讲《微服务Spring Cloud设计与开发实战》《MongoDB高级实战》等课程 2.MongoDB中文社区专家 3.《MongoDB实战》第2版译者 5.吉林大学计算机科学学士、上海交通大学硕士
    推荐回答

    spark执行的时候,可以通过spark.executor.memory来设置executor所需的内存大小。 spark.yarn.executor.memoryOverhead是executor所需的额外内存开销。 默认为max(executorMemory * 0.10,最小值为384)。 实际内存等于:executorMem= X+max(X*0.1,384)。

    2019-09-05 10:52:05
    赞同 展开评论 打赏
问答排行榜
最热
最新

相关电子书

更多
Time Series Analytics with Spark 立即下载
Just Enough Scala for Spark 立即下载
云服务器ECS内存增强型实例re6全新发布 立即下载