CreateDirectStream 消费数据补充|学习笔记

简介: 快速学习 CreateDirectStream 消费数据补充

开发者学堂课程【大数据实战项目:反爬虫系统(Lua+Spark+Redis+Hadoop框架搭建)CreateDirectStream 消费数据补充】学习笔记与课程紧密联系,让用户快速学习知识

课程地址https://developer.aliyun.com/learning/course/670/detail/11628


CreateDirectStream 消费数据补充


内容介绍:

一、KafkaUtils.createStream 的特点

二、KafkaUtils.createStream 的代码实现

 

一、KafkaUtils.createStream 的特点

构造函数为

KafkaUtils.createStream(ssc,[zk],[consumergroup id],[per-topic,partitions])使用了receivers 来接收数据,利用的是Kafka 高层次的消费者api,对于所有的receivers 接收到的数据将会保存在spark executors 中,然后通过Spark Streaming 启动job 来处理这些数据,默认会丢失,可启用WAL 日志,该日志存储在HDFS 上。

创建一个 receiver 来对 kafka 进行定时拉取数据,ssc 的 rdd

分区和 kafka 的 topic 分区不是一个概念,故如果增加特定主体分区数仅仅是增加一个receiver 中消费 topic 的线程数,并不增加 spark 的并行处理数据数量。 

1、对于不同的 group 和 topic 可以使用多个 receivers 创建不同

的DStream。

2、如果启用了WAL,需要设置存储级别,即

KafkaUtils.createStream(….„,StorageLevel.MEMORY_AND_DISK_SER)

 

二、KafkaUtils.createStream 的代码实现

package org.apache.spark.stream

import org.apache.spark.streaming.kafka.KafkaUtils

import org.apache.spark.streaming.{Seconds, StreamingContext}

import org.apache.spark.{HashPartitioner, SparkConf}

object KafkaWordCount{

val updateFunction = (iter: Iterator[(String, Seq[Int], Option[Int])]) =>{

iter.flatMap{case(x,y,z)=>Some(y.sum+z.getOrElse(0)).map(v => (x, v))}

def main(args: Array[String]){

val conf = new SparkConf().setMaster("local[2]").setAppName("KafkaWordCount")

val ssc = new StreamingContext(conf, Seconds(5))

/∥回滚点设置在本地

//ssc.checkpoint("./")

//将回滚点写到 hdfs

ssc.checkpoint("hdfs://node1:9000/streamcheckpoint")

groupld,

val Array(zkQuorum,groupld,topics,num Threads)=Array[String]("node2:2181,node3:2181,node4:2181", "g1", "wangsf-test", "2")

val topicMap =topics.split(",").map((_,numThreads.tolnt)).toMap

val lines = KafkaUtils.createStream(ssc, zkQuorum, groupld, topicMap).map(_._2)

val results = lines.flatMap(_.split(" ")).map((, 1)).updateStateBykey(updateFunction, newHashPartitioner(ssc.sparkContext.defaultParallelism), true)

results.foreachRDD(x => x.foreach(printIn))

ssc.start()

ssc.awaitTermination()

}  

}

其中“回滚点”设置与否都可

相关文章
|
3天前
|
数据采集 人工智能 安全
|
12天前
|
云安全 监控 安全
|
4天前
|
自然语言处理 API
万相 Wan2.6 全新升级发布!人人都能当导演的时代来了
通义万相2.6全新升级,支持文生图、图生视频、文生视频,打造电影级创作体验。智能分镜、角色扮演、音画同步,让创意一键成片,大众也能轻松制作高质量短视频。
1054 151
|
4天前
|
编解码 人工智能 机器人
通义万相2.6,模型使用指南
智能分镜 | 多镜头叙事 | 支持15秒视频生成 | 高品质声音生成 | 多人稳定对话
|
17天前
|
机器学习/深度学习 人工智能 自然语言处理
Z-Image:冲击体验上限的下一代图像生成模型
通义实验室推出全新文生图模型Z-Image,以6B参数实现“快、稳、轻、准”突破。Turbo版本仅需8步亚秒级生成,支持16GB显存设备,中英双语理解与文字渲染尤为出色,真实感和美学表现媲美国际顶尖模型,被誉为“最值得关注的开源生图模型之一”。
1738 9
|
9天前
|
人工智能 自然语言处理 API
一句话生成拓扑图!AI+Draw.io 封神开源组合,工具让你的效率爆炸
一句话生成拓扑图!next-ai-draw-io 结合 AI 与 Draw.io,通过自然语言秒出架构图,支持私有部署、免费大模型接口,彻底解放生产力,绘图效率直接爆炸。
684 152
|
11天前
|
人工智能 安全 前端开发
AgentScope Java v1.0 发布,让 Java 开发者轻松构建企业级 Agentic 应用
AgentScope 重磅发布 Java 版本,拥抱企业开发主流技术栈。
652 12
|
6天前
|
SQL 自然语言处理 调度
Agent Skills 的一次工程实践
**本文采用 Agent Skills 实现整体智能体**,开发框架采用 AgentScope,模型使用 **qwen3-max**。Agent Skills 是 Anthropic 新推出的一种有别于mcp server的一种开发方式,用于为 AI **引入可共享的专业技能**。经验封装到**可发现、可复用的能力单元**中,每个技能以文件夹形式存在,包含特定任务的指导性说明(SKILL.md 文件)、脚本代码和资源等 。大模型可以根据需要动态加载这些技能,从而扩展自身的功能。目前不少国内外的一些框架也开始支持此种的开发方式,详细介绍如下。
410 4