开发者社区> 问答> 正文

Spark中Work的主要工作是什么啊?

Spark中Work的主要工作是什么啊?

展开
收起
游客vwuxaq6iqaowc 2021-12-06 17:16:42 325 0
1 条回答
写回答
取消 提交回答
  • 管理当前节点内存,CPU的使用状况,接收master分配过来的资源指令,通过ExecutorRunner启动程序分配任务 worker就类似于包工头,管理分配新进程,做计算的服务,相当于process服务 worker不会运行代码,具体运行的是Executor是可以运行具体appliaction写的业务逻辑代码

    2021-12-06 17:23:52
    赞同 展开评论 打赏
问答分类:
问答地址:
问答排行榜
最热
最新

相关电子书

更多
Hybrid Cloud and Apache Spark 立即下载
Scalable Deep Learning on Spark 立即下载
Comparison of Spark SQL with Hive 立即下载