开发者社区> 问答> 正文

在client模式下,如果spark job的jar包过大,可能会导致什么问题?如何解决?

在client模式下,如果spark job的jar包过大,可能会导致什么问题?如何解决?

展开
收起
不吃核桃 2024-07-29 15:50:00 21 0
1 条回答
写回答
取消 提交回答
  • 在client模式下,如果spark job的jar包过大,可能会导致上传失败或性能较差的问题。为了解决这个问题,可以将项目module进行拆分,将公共的、常用的类或工具类放在单独的包(如accounting-spark-common)中,而将具体的任务实现(如accounting-spark-job)和依赖的二方包(如accounting-spark-dependency)分开打包。对于过大的依赖二方包,可以单独打包后手工在datawork中上传,并通过resources传递参数给Spark任务。

    2024-07-29 16:16:00
    赞同 5 展开评论 打赏
问答排行榜
最热
最新

相关电子书

更多
Hybrid Cloud and Apache Spark 立即下载
Scalable Deep Learning on Spark 立即下载
Comparison of Spark SQL with Hive 立即下载