开发者社区> 问答> 正文

spark静态内存的局限性是什么?

spark静态内存的局限性是什么?

展开
收起
游客fq2cv4o24bhvc 2021-12-07 17:55:18 344 0
1 条回答
写回答
取消 提交回答
  • (1) 没有适用于所有应用的默认配置,通常需要开发人员针对不同的应用进行不同的参数配置。比如根据任务的执行逻辑,调整shuffle和storage内存占比来适应任务的需求。

    (2) 这样需要开发人员具备较高的spark知识 (3) 那些不cache数据的应用在运行时只占用一小部分可用内存,因为默认的内存配置中,storage用去了safety内存的60%。

    2021-12-07 17:56:20
    赞同 展开评论 打赏
问答排行榜
最热
最新

相关电子书

更多
Apache Spark: Cloud and On-Prem 立即下载
Hybrid Cloud and Apache Spark 立即下载
云服务器ECS内存增强型实例re6全新发布 立即下载