开发者社区> 问答> 正文

MaxCompute Spark中DataWorks的Spark配置的位置有何作用?

MaxCompute Spark中DataWorks的Spark配置的位置有何作用?

展开
收起
bnbajjyhyjfty 2021-12-12 15:02:16 667 0
1 条回答
写回答
取消 提交回答
  • 1Spark配置的位置 用户使用MaxcomputeSpark通常会有几个位置可以添加Spark配置,主要包括:

    。位置1:spark-defaultsconf用户通过客户端提交时在spark-defaultsconf文件中添加的Spark配置

    位置2:dataworks的配置项用户通过dataworks提交时在配置项添加的Spark配置,这部分配置最终会 在位置3中被添加

    位置3:配置在启动脚本spark-submit--conf选项中

    位置4:配置在用户代码中,用户在初始化SparkContext时设置的Spark配置 Spark配置的优先级 用户代码>spark-submit--选项>spark-defaultsconf配置>spark-envsh配置>默认值

    2021-12-12 15:02:52
    赞同 展开评论 打赏
问答排行榜
最热
最新

相关电子书

更多
DataWorks数据集成实时同步最佳实践(含内测邀请)-2020飞天大数据平台实战应用第一季 立即下载
DataWorks调度任务迁移最佳实践-2020飞天大数据平台实战应用第一季 立即下载
DataWorks商业化资源组省钱秘籍-2020飞天大数据平台实战应用第一季 立即下载