Kafka 数据如何同步到 MaxCompute|学习笔记

本文涉及的产品
云原生大数据计算服务 MaxCompute,5000CU*H 100GB 3个月
大数据开发治理平台DataWorks,Serverless资源组抵扣包300CU*H
云原生大数据计算服务MaxCompute,500CU*H 100GB 3个月
简介: 快速学习 Kafka 数据如何同步到 MaxCompute

开发者学堂课程【阿里云大数据计算服务  MaxCompute  使用教程:Kafka 数据如何同步到 MaxCompute】学习笔记,与课程紧密联系,让用户快速学习知识。

课程地址:https://developer.aliyun.com/learning/course/86/detail/1330


Kafka 数据如何同步到 MaxCompute


目录:

1、实验目的

2、方案说明

3、Kafka 消息队列使用以及原理

4、资源组介绍以及配置

5、开发测试以及生产部署


1、实验目的

日常工作中,企业需要将 APP 或网站产生的行为日志和业务数据,通过 Kafka 消息队列统一收集后,投递到数据仓库 MaxCompute中,再通过大数据分析后将指标数据在报表中展示,如用户特征、销售排名、订单地区分布等。

过本次实验,我们可以学习了解 Kafka数据如何通过数据集成同步到 MaxCompute;

 

2、方案说明

方案一:使用自定义资源组的背景一般为网络环境复杂适用于数据上云的场景,该实验将展示使用 CS 作为自定义资源组的操作过程。

方案二:使用独享集成资源组背景一般为集成资源不足影响数据同步过程,该实验将展示使用独享资源组的操作方式(重点关注 VPC 的绑定)。

 

3、Kafka 消息队列使用以及原理

Kafka 产品概述

消息队列 for Apache Kafka 是阿里云提供的

分布式、高吞吐、可扩展的消息队列服务。消息队列 for Apache Kafka 广泛用于日志收集监控数据聚合、流式数据处理、在线和离线分析等大数据领域

消息队列 for Apache Kafka 针对开源的 Apache Kafka 提供全托管服务,彻底解决开源产

品长期以来的痛点。有了消息队列 for Apache

Kafka, 您只需专注于业务开发,无需部署运维具有低成本、更弹性、更可靠的优势

Kafka架构介绍

一个典型的消息队列 for Apache Kafka 集群包括四个部分

Producer:通过push模式向消息队列 for Apache Kafka 的 Kafka Broker 发送消息。发送的消息可以是网站的页面访问、服务器日志,也可以是 CPU 和内存相关的系统资源信息

Kafka Braker:用于存储消息的服务器 Kafka Broker 支持水平扩展 Kafka Broker 节点的数量越多, Kafka 集群的吞吐率越高

Consumer Group:通过 pull 模式从消息队列 for Apache Kafka Broker 订阅并消费消息

Zookeeper:管理集群的配置.选举 leader 分区并且在 Consumer Group 发生变化时,进行负载均衡

Kafka 消息队列购买以及部署

1.到 Kafka 消息队列产品页面点击购买,选择对应消费方式,地区,实例类型,磁盘,流量以及消息存放时间。

2.开通完成之后点击部署,选择合适的 VPC 以及交换机(注意可用区的位置)。

3.进入 TocTopic 管理页面点击创建按钮,创建个人的 Topic

4进入 Consumer Group 管理点击创建 Consumer Group.创建自己所需的Consumer Group

kafka 消息队列使用以及原理

kafka 白名单配置

1.确认需要访问 kafka 的网段信息

 

4、资源组介绍以及配置

自定义资源组的使用背景

DataWorks 可以通过免费传输能力(默认任务源组)进行海量数据上云但默认资源组无法实现传输速度存在较高要求或复杂环境中的数据源同步上云的需求。您可以新增自定义的任务资源运行数据同步任务,解决 DataWorks 默认资源组与您的数据源不通的问题,或实现更高速度的传输能力。

当默认任务资源无法与您的复杂的网络环境连通时,可以通过数据集成自定义资源的部署,打通任意网络环境之间的数据传输同步。

自定义资源组的配置

1.进入 Dataworks 控制台,点击需要数据同步的项目空间,点击数据集成。

2.进入数据源界面,点击新增自定义资源组。

3.确认 kafka 与需要添加自定义资源组属于同一个VPC下。

4.登陆 ECS,执行命令 dmidecode| grep UUID 得到 ECS 的 UUID。

资源组介绍以及配置

独享资源组的使用背景

独享资源模式下,机器的物理资源(络、磁盘、CPU 和内存等)完全独享。不仅可以隔离用户间的资源使用也可以隔离不同工作空间任务的资源使用。此外,独享资源也支持灵活的扩容、缩容功能,可以满足资源独享、灵活配置等需求。

独享资源组可以访问同一地域的VPC数据源,也可以访问跨地域的公网 RDS 地址。

独享资源组的配置

1.进入 Dataworks 控制台的资源组列表,点击新增独享集成资源组,点击购买选择对应的地区,CPU 以及内存。

2.点击专有网路绑定,选择与 kafka 对应 VPC 以及交换机(明显的区别是可用区),安全组。

Dataworks 数据集成操作

1.进入 Dataworks 操作界面,点击创建业务流程,在新建的业务流程里添加数据同步节点。

2.进入数据同步节点,点击数据源为 kafka,点击转化为脚本模式。

 

5、开发测试以及生产部署

选择自定义资源组(或独享集成资源组)进行同步操作

1.选择可使用的独享资源组与自定义资源组同时进行。

2.同步任务成功会显示,同步数据记录以及结果标志。

查询同步的数据结果

Dataworks 的临时界面查看同步数据结果。

1.点击右侧调度配置,输入调入时间。

2.参考 Dataworks 官方文档完善业务处理流程。

相关文章
|
12天前
|
SQL 数据可视化 大数据
从数据小白到大数据达人:一步步成为数据分析专家
从数据小白到大数据达人:一步步成为数据分析专家
158 92
|
3月前
|
存储 分布式计算 数据挖掘
数据架构 ODPS 是什么?
数据架构 ODPS 是什么?
620 7
|
3月前
|
存储 分布式计算 大数据
大数据 优化数据读取
【11月更文挑战第4天】
80 2
|
28天前
|
分布式计算 Shell MaxCompute
odps测试表及大量数据构建测试
odps测试表及大量数据构建测试
|
10天前
|
存储 搜索推荐 大数据
数据大爆炸:解析大数据的起源及其对未来的启示
数据大爆炸:解析大数据的起源及其对未来的启示
52 14
数据大爆炸:解析大数据的起源及其对未来的启示
|
2天前
|
分布式计算 大数据 流计算
玩转数据:初学者的大数据处理工具指南
玩转数据:初学者的大数据处理工具指南
40 14
|
5天前
|
数据采集 存储 机器学习/深度学习
数据的秘密:如何用大数据分析挖掘商业价值
数据的秘密:如何用大数据分析挖掘商业价值
26 9
|
15天前
|
数据采集 存储 分布式计算
解密大数据:从零开始了解数据海洋
解密大数据:从零开始了解数据海洋
57 17
|
3月前
|
机器学习/深度学习 存储 大数据
在大数据时代,高维数据处理成为难题,主成分分析(PCA)作为一种有效的数据降维技术,通过线性变换将数据投影到新的坐标系
在大数据时代,高维数据处理成为难题,主成分分析(PCA)作为一种有效的数据降维技术,通过线性变换将数据投影到新的坐标系,保留最大方差信息,实现数据压缩、去噪及可视化。本文详解PCA原理、步骤及其Python实现,探讨其在图像压缩、特征提取等领域的应用,并指出使用时的注意事项,旨在帮助读者掌握这一强大工具。
156 4
|
3月前
|
存储 大数据 数据管理
大数据分区简化数据维护
大数据分区简化数据维护
39 4