开发者社区> 问答> 正文

spark工作机制?

spark工作机制?

展开
收起
茶什i 2019-10-25 16:13:24 2271 0
2 条回答
写回答
取消 提交回答
  • 下一站是幸福

    Spark应用执行机制 总览 Spark应用提交后经历了一系列的转换,最后成为Task在每个节点上执行. RDD的Action算子触发Job的提交,提交到Spark中的Job

    2020-08-21 12:38:33
    赞同 展开评论 打赏
  • 用户在client端提交作业后,会由Driver运行main方法并创建spark context上下文。
    执行add算子,形成dag图输入dagscheduler,按照add之间的依赖关系划分stage输入task scheduler。 task scheduler会将stage划分为task set分发到各个节点的executor中执行。

    2019-10-25 16:18:49
    赞同 展开评论 打赏
问答排行榜
最热
最新

相关电子书

更多
Hybrid Cloud and Apache Spark 立即下载
Scalable Deep Learning on Spark 立即下载
Comparison of Spark SQL with Hive 立即下载