开发者社区> 问答> 正文

如果Spark Streaming停掉了,如何保证Kafka的重新运作是合理的呢?

如果Spark Streaming停掉了,如何保证Kafka的重新运作是合理的呢?

展开
收起
游客ahv54x37wvm7u 2021-12-13 20:15:14 627 0
1 条回答
写回答
取消 提交回答
  • 首先要说一下 Spark 的快速故障恢复机制,在节点出现故障的情况下,传统流处理系统会在其他节点上重启失败的连续算子,并可能冲洗能运行先前数据流处理操作获取部分丢失数据。在此过程中只有该节点重新处理失败的过程。只有在新节点完成故障前所有计算后,整个系统才能够处理其他任务。在 Spark 中,计算将会分成许多小的任务,保证能在任何节点运行后能够正确合并,因此,就算某个节点出现故障,这个节点的任务将均匀地分散到集群中的节点进行计算,相对于传递故障恢复机制能够更快地恢复。

    2021-12-13 20:15:25
    赞同 展开评论 打赏
问答排行榜
最热
最新

相关电子书

更多
Hybrid Cloud and Apache Spark 立即下载
Scalable Deep Learning on Spark 立即下载
Comparison of Spark SQL with Hive 立即下载