MaxCompute Spark中用户提交作业的的Spark版本有几种情况呢?
情况1:直接通过本地客户端提交任务,spark版本就是用户本地客户端的版本
情况2:用户通过dataworks提交任务,取决于dataworksgateway的默认spark版本,当前公共云dataworks公共资源组gateway的默认版本是spark-2.3.0-odps0.32.1
情况3:用户通过dataworks提交任务,配置参数sparkhadoopodpssparkversion,则会按照配置的版本号来寻找对应的spark客户端,用户可以配置sparkhadoopodpssparkversion=spark- 2.3.0-odps0325手动切换版本
情况4:该情况优先级最高,用户可以在本地客户端或者是dataworks提交任务时配置以下参数,则类加载的优先级最高,因此会在spark任务启动时优先使用该版本的spark
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。