DataWorks任务拉起的jar包中去获取SparkSession耗时达30+分钟,请问这个该从什么方向去排查,我在EMR侧没有找到Spark相关的监控之类的?
当DataWorks任务拉起的jar包中获取SparkSession耗时较长时,可以从以下几个方面进行排查:
要排查任务拉起 Jar 包耗时过长的原因,可以参考以下几种方法:
如果在DataWorks中拉起的jar包中获取SparkSession耗时达到30分钟以上,可以从以下几个方面进行排查:
当DataWorks任务拉起的jar包耗时长达30分钟以上时,可以采取以下措施进行排查:
除此之外,你可以尝试使用Hadoop Yarn Web UI或Ambari UI查看节点的负载状况,以及CPU、内存等资源消耗情况。
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。
DataWorks基于MaxCompute/Hologres/EMR/CDP等大数据引擎,为数据仓库/数据湖/湖仓一体等解决方案提供统一的全链路大数据开发治理平台。