Storm vs. Kafka Streams vs. Spark Streaming vs. Flink ,流式处理框架一网打尽!1

本文涉及的产品
实时计算 Flink 版,5000CU*H 3个月
云原生大数据计算服务 MaxCompute,5000CU*H 100GB 3个月
云原生大数据计算服务MaxCompute,500CU*H 100GB 3个月
简介: Storm vs. Kafka Streams vs. Spark Streaming vs. Flink ,流式处理框架一网打尽!1

文章目录


一、前言

二、什么是流式处理


三、流式处理的重点有哪些

3.1 交付保障

3.2 故障容错

3.3 状态管理

3.4 性能

3.5 成熟


四、流式处理的两种类型

4.1 Native流

4.2 小批量处理

4.3 两种类型都有一些优点和缺点


五、现有流处理框架介绍

5.1 Storm

5.2 Spark Streaming

5.3 Flink

5.4 Kafka Steams

5.5 Kafka Streams vs. Spark Streaming


六、流式框架比较


七、如何选择最好的/最适合的流失处理框架?

7.1 使用场景

7.2 未来的考虑

7.3 现有的技术堆栈


八、总结

8.1 延迟要求高

8.2 功能复杂度

8.3 现有技术堆栈

8.4 未来的考虑

Ref


一、前言


随着新设备,传感器和物联网技术的发展,数据增长率在不断加速,全世界的数据量都在井喷式的增长。


从技术上讲,这意味着我们通过大数据处理的手段将变得更加复杂和具有挑战性。许多用例(例如移动应用广告,欺诈检测,出租车预订,患者监控等)需要在数据到达时实时进行数据处理,以便做出快速可行的决策,这也就是分布式流处理在大数据世界中变得非常流行的原因。


目前我们所接触的比较流行的开源流式处理框架:Flink、Spark Streaming、Storm、Kafka Streams,接下来我会对以上几个框架的应用场景、优势、劣势、局限性一一做说明。


二、什么是流式处理


目前对信息高时效性、可操作性的需求不断增长,这要求软件系统在更少的时间内能处理更多的数据。传统的大数据处理模型将在线事务处理和离线分析从时序上将两者完全分割开来,但显然该架构目前已经越来越落后于人们对于大数据实时处理的需求。


实时计算的产生即来源于对于上述数据加工时效性的严苛需求。数据的业务价值随着时间的流失而迅速降低,因此在数据发生后必须尽快对其进行计算和处理。而传统的大数据处理模式对于数据加工均遵循传统日清日毕模式,即以小时甚至以天为计算周期对当前数据进行累计并处理,显然这类处理方式无法满足数据实时计算的需求。


在诸如实时大数据分析、风控预警、实时预测、金融交易等诸多业务场景领域,批量(或者说离线)处理对于上述对于数据处理时延要求苛刻的应用领域而言是完全无法胜任其业务需求的。而实时计算作为一类针对流数据的实时计算模型,可有效地缩短全链路数据流时延、实时化计算逻辑、平摊计算成本,最终有效满足实时处理大数据的业务需求。


三、流式处理的重点有哪些


为了理解任何 Streaming 框架的优点和局限性,我们应该注意与 Streams 处理相关的一些重要特征和术语:


3.1 交付保障


Atleast-once(即使在出现故障时也至少会被处理一次)


Atmost-once(在发生故障时可能不会被处理)


Exactly-once(即使出现故障,数据也将被处理一次且恰好一次)


从数据一致性的角度上看,完全一次是我们所希望的。但是在分布式系统中是比较难实现的,处于对性能以及数据安全一致性的考虑,都会从中权衡利弊作出响应的选择。


3.2 故障容错


分布式系统中,包含任务故障、节点故障、网络故障等,框架应该能够恢复,并且应该从它离线的位置再次开始处理,一般通过不时地检查流式传输到某个持久存储的状态来实现。


例如,在处理来自Kafka的数据时,检查点kafka在获得记录处理后会将offset存储到zookeeper。如果失败,请从检查点offset处重新开始。


3.3 状态管理


在状态处理要求的情况下,我们需要维护某些状态(例如记录中看到的每个不同单词的计数),框架应该能够提供一些机制来保存和更新状态信息。


3.4 性能


性能上我们考虑的有几个点:延迟、吞吐量和可伸缩性。理想的情况下,我们希望延迟尽可能小、吞吐量尽可能高,而实际上两者很难同时实现,只能努力做到两者之间的平衡。


高级功能(Event Time Processing, Watermarks, Windowing)


主要是应对复杂流处理的场景。


3.5 成熟


从企业技术应用的角度来看,这一点是非常重要的。记得起大公司的大规模验证和测试,框架的稳定性、可靠性也有一定的保障。成熟的框架,更有可能获得良好的社区支持和stackoverflow的帮助。


四、流式处理的两种类型


4.1 Native流


指每个传入的记录一到达就会被处理,而不必等待其他记录。


image.png


4.2 小批量处理


也称为快速批处理。这意味着每隔几秒就会将传入记录一起批处理,然后在一个小批量中处理,延迟几秒钟。


image.png


4.3 两种类型都有一些优点和缺点


Native流:每个记录在到达时都会被处理,从而允许框架实现最小的延迟。但这也意味着很难在不影响每个记录的吞吐量的情况下实现容错,我们需要在处理后跟踪和检查点。此外,状态管理很容易,因为有长时间运行的过程可以轻松地维持所需的状态。


微批处理:与Native流恰恰相反,容错是与生俱来的,因为它本质上是一个批处理,吞吐量也很高,因为处理和检查点将一次性完成一组记录。但它不像Native流一样,它有一定的延迟成本。此外,有效的状态管理也将是一项难以维持的挑战。

目录
相关文章
|
24天前
|
分布式计算 数据处理 Apache
Spark和Flink的区别是什么?如何选择?都应用在哪些行业?
【10月更文挑战第10天】Spark和Flink的区别是什么?如何选择?都应用在哪些行业?
118 1
|
8天前
|
分布式计算 大数据 Apache
ClickHouse与大数据生态集成:Spark & Flink 实战
【10月更文挑战第26天】在当今这个数据爆炸的时代,能够高效地处理和分析海量数据成为了企业和组织提升竞争力的关键。作为一款高性能的列式数据库系统,ClickHouse 在大数据分析领域展现出了卓越的能力。然而,为了充分利用ClickHouse的优势,将其与现有的大数据处理框架(如Apache Spark和Apache Flink)进行集成变得尤为重要。本文将从我个人的角度出发,探讨如何通过这些技术的结合,实现对大规模数据的实时处理和分析。
34 2
ClickHouse与大数据生态集成:Spark & Flink 实战
|
29天前
|
存储 分布式计算 API
大数据-107 Flink 基本概述 适用场景 框架特点 核心组成 生态发展 处理模型 组件架构
大数据-107 Flink 基本概述 适用场景 框架特点 核心组成 生态发展 处理模型 组件架构
73 0
|
29天前
|
消息中间件 分布式计算 NoSQL
大数据-104 Spark Streaming Kafka Offset Scala实现Redis管理Offset并更新
大数据-104 Spark Streaming Kafka Offset Scala实现Redis管理Offset并更新
35 0
|
29天前
|
消息中间件 存储 分布式计算
大数据-103 Spark Streaming Kafka Offset管理详解 Scala自定义Offset
大数据-103 Spark Streaming Kafka Offset管理详解 Scala自定义Offset
73 0
|
9天前
|
分布式计算 大数据 OLAP
AnalyticDB与大数据生态集成:Spark & Flink
【10月更文挑战第25天】在大数据时代,实时数据处理和分析变得越来越重要。AnalyticDB(ADB)是阿里云推出的一款完全托管的实时数据仓库服务,支持PB级数据的实时分析。为了充分发挥AnalyticDB的潜力,将其与大数据处理工具如Apache Spark和Apache Flink集成是非常必要的。本文将从我个人的角度出发,分享如何将AnalyticDB与Spark和Flink集成,构建端到端的大数据处理流水线,实现数据的实时分析和处理。
37 1
|
2月前
|
算法 API Apache
Flink CDC:新一代实时数据集成框架
本文源自阿里云实时计算团队 Apache Flink Committer 任庆盛在 Apache Asia CommunityOverCode 2024 的分享,涵盖 Flink CDC 的概念、版本历程、内部实现及社区未来规划。Flink CDC 是一种基于数据库日志的 CDC 技术实现的数据集成框架,能高效完成全量和增量数据的实时同步。自 2020 年以来,Flink CDC 经过多次迭代,已成为功能强大的实时数据集成工具,支持多种数据库和数据湖仓系统。未来将进一步扩展生态并提升稳定性。
537 1
Flink CDC:新一代实时数据集成框架
|
28天前
|
数据挖掘 物联网 数据处理
深入探讨Apache Flink:实时数据流处理的强大框架
在数据驱动时代,企业需高效处理实时数据流。Apache Flink作为开源流处理框架,以其高性能和灵活性成为首选平台。本文详细介绍Flink的核心特性和应用场景,包括实时流处理、强大的状态管理、灵活的窗口机制及批处理兼容性。无论在实时数据分析、金融服务、物联网还是广告技术领域,Flink均展现出巨大潜力,是企业实时数据处理的理想选择。随着大数据需求增长,Flink将继续在数据处理领域发挥重要作用。
|
29天前
|
消息中间件 分布式计算 Kafka
大数据-102 Spark Streaming Kafka ReceiveApproach DirectApproach 附带Producer、DStream代码案例
大数据-102 Spark Streaming Kafka ReceiveApproach DirectApproach 附带Producer、DStream代码案例
54 0
|
4月前
|
关系型数据库 API Apache
Flink CDC:基于 Apache Flink 的流式数据集成框架
本文整理自阿里云 Flink SQL 团队研发工程师于喜千(yux)在 SECon 全球软件工程技术大会中数据集成专场沙龙的分享。
18118 11
Flink CDC:基于 Apache Flink 的流式数据集成框架