spark-streaming-kafka-0-8 官网讲解

简介:

spark-streaming-kafka-0-8
Note: Kafka 0.8 support is deprecated as of Spark 2.3.0.
0.8在spark2.3中被标为过时的,但是没关系,还能用

描述两种接收数据的方式receive 和Direct(spark1.3以后才有的)

  1. 有receive的
    receive接收数据,在ui上有个jobid=0,使用kafka high-level consumer api,接收kafka数据先到executer内存里面,

然后再启动streaming作业处理数据,但是在默认的配置下面可能会造成数据的丢失。为了保证数据零丢失,可以开启wal
(预先写日志)机制,可以防止数据丢失
缺点:吞度量就小很多了。
代码
import org.apache.spark.streaming.kafka._
val topics="spark_kafkap_streaming".split(",").map((_,1)).tomap //1是现成数
val ssc=new StreamingContext(....);
val kafkaStream = KafkaUtils.createStream(ssc,"hadoop001:2181", "hadoop_groupid",topics)
// [ZK quorum], [consumer group id], [per-topic number of Kafka partitions to consume])
kafkaStream.print(),打印之后之后是个k v,形式的,k无用时可只用v
注意:

  1. kafka中partitons数量与rdd中partitions数量没有任何关系
  2. 如果慢了可以增加组,使用多个receive
    3.若开启wal机制存储都hdfs,可以设置MEMORY_AND_DISK_SER,设置保存一份
  3. Direct的
    spark1.3之后,只要记录offset,数据就能恢复,它周期性的查询topic partitions offset range,kafka consumer api读取offset

优势:

  1. 简化了并性度,sparkstreaing创建的partiton和kafka的partitons一一对应,一对一的映射及优化并行度。
    2.效率更高,不用像revice的方式必须使用wal的方式保证数据丢失,只要你有足够的保存天数,就能获取到数据。

3.执行一次的语义,revece方式使用wal才会保证不丢失,但是会重复,offset保存在zookeeper。在direct使用simple api,不是用zookeeper,使用ckepoint,或者自己保存offset,保证幂等性或原子性
缺点:
需要自己更新offset到zookeeper。

相关文章
|
1月前
|
分布式计算 大数据 Apache
ClickHouse与大数据生态集成:Spark & Flink 实战
【10月更文挑战第26天】在当今这个数据爆炸的时代,能够高效地处理和分析海量数据成为了企业和组织提升竞争力的关键。作为一款高性能的列式数据库系统,ClickHouse 在大数据分析领域展现出了卓越的能力。然而,为了充分利用ClickHouse的优势,将其与现有的大数据处理框架(如Apache Spark和Apache Flink)进行集成变得尤为重要。本文将从我个人的角度出发,探讨如何通过这些技术的结合,实现对大规模数据的实时处理和分析。
109 2
ClickHouse与大数据生态集成:Spark & Flink 实战
|
2月前
|
存储 分布式计算 算法
大数据-106 Spark Graph X 计算学习 案例:1图的基本计算、2连通图算法、3寻找相同的用户
大数据-106 Spark Graph X 计算学习 案例:1图的基本计算、2连通图算法、3寻找相同的用户
68 0
|
2月前
|
消息中间件 分布式计算 NoSQL
大数据-104 Spark Streaming Kafka Offset Scala实现Redis管理Offset并更新
大数据-104 Spark Streaming Kafka Offset Scala实现Redis管理Offset并更新
44 0
|
2月前
|
消息中间件 存储 分布式计算
大数据-103 Spark Streaming Kafka Offset管理详解 Scala自定义Offset
大数据-103 Spark Streaming Kafka Offset管理详解 Scala自定义Offset
98 0
|
1月前
|
SQL 机器学习/深度学习 分布式计算
Spark快速上手:揭秘大数据处理的高效秘密,让你轻松应对海量数据
【10月更文挑战第25天】本文全面介绍了大数据处理框架 Spark,涵盖其基本概念、安装配置、编程模型及实际应用。Spark 是一个高效的分布式计算平台,支持批处理、实时流处理、SQL 查询和机器学习等任务。通过详细的技术综述和示例代码,帮助读者快速掌握 Spark 的核心技能。
61 6
|
1月前
|
存储 分布式计算 Hadoop
数据湖技术:Hadoop与Spark在大数据处理中的协同作用
【10月更文挑战第27天】在大数据时代,数据湖技术凭借其灵活性和成本效益成为企业存储和分析大规模异构数据的首选。Hadoop和Spark作为数据湖技术的核心组件,通过HDFS存储数据和Spark进行高效计算,实现了数据处理的优化。本文探讨了Hadoop与Spark的最佳实践,包括数据存储、处理、安全和可视化等方面,展示了它们在实际应用中的协同效应。
96 2
|
1月前
|
存储 分布式计算 Hadoop
数据湖技术:Hadoop与Spark在大数据处理中的协同作用
【10月更文挑战第26天】本文详细探讨了Hadoop与Spark在大数据处理中的协同作用,通过具体案例展示了两者的最佳实践。Hadoop的HDFS和MapReduce负责数据存储和预处理,确保高可靠性和容错性;Spark则凭借其高性能和丰富的API,进行深度分析和机器学习,实现高效的批处理和实时处理。
70 1
|
1月前
|
分布式计算 大数据 OLAP
AnalyticDB与大数据生态集成:Spark & Flink
【10月更文挑战第25天】在大数据时代,实时数据处理和分析变得越来越重要。AnalyticDB(ADB)是阿里云推出的一款完全托管的实时数据仓库服务,支持PB级数据的实时分析。为了充分发挥AnalyticDB的潜力,将其与大数据处理工具如Apache Spark和Apache Flink集成是非常必要的。本文将从我个人的角度出发,分享如何将AnalyticDB与Spark和Flink集成,构建端到端的大数据处理流水线,实现数据的实时分析和处理。
62 1
|
2月前
|
分布式计算 大数据 Apache
利用.NET进行大数据处理:Apache Spark与.NET for Apache Spark
【10月更文挑战第15天】随着大数据成为企业决策和技术创新的关键驱动力,Apache Spark作为高效的大数据处理引擎,广受青睐。然而,.NET开发者面临使用Spark的门槛。本文介绍.NET for Apache Spark,展示如何通过C#和F#等.NET语言,结合Spark的强大功能进行大数据处理,简化开发流程并提升效率。示例代码演示了读取CSV文件及统计分析的基本操作,突显了.NET for Apache Spark的易用性和强大功能。
51 1
|
2月前
|
消息中间件 分布式计算 Kafka
大数据平台的毕业设计02:Spark与实时计算
大数据平台的毕业设计02:Spark与实时计算
103 0