开发者社区> 问答> 正文

针对Integer >MAX_VALUE 有什么好建议吗?

_
日志信息如图。

展开
收起
hbase小助手 2018-11-27 18:39:41 1688 0
1 条回答
写回答
取消 提交回答
  • 描述不太清楚,看情况是 Spark RDD 的分区限制,不能超过 2GB。建议做如下尝试:

    • 1、如果是 Spark core 的应用,则不要对 RDD 做 persist
    • 2、如果是 Spark sql 的应用,则增大 spark.sql.shuffle.partitions ,默认值是 200

    希望能有效解决这个问题。

    2019-07-17 23:16:38
    赞同 展开评论 打赏
问答分类:
问答地址:
问答排行榜
最热
最新

相关电子书

更多
Show Me The Money! Cost & Reso 立即下载
低代码开发师(初级)实战教程 立即下载
阿里巴巴DevOps 最佳实践手册 立即下载