使用dataworks投递日志服务数据到MaxCompute

本文涉及的产品
日志服务 SLS,月写入数据量 50GB 1个月
简介: 日志服务提供了多种投递数据的方式,如: 在控制台直接配置投递任务,通过消费组获取数据然后再投递。控制台直接投递配置方式与dataworks类似,不过配置项更少,更容易操作。

背景

本文将为您介绍如何通过数据集成(DataWorks)功能投递LogHub(SLS)数据至MaxCompute。

前提条件

总览

  1. 首先,需要确定日志服务中存在可供投递的数据;
  2. 然后,在DataWorks控制台中创建工作空间,以及日志服务的数据源、MaxComputer的数据源、MaxCompute的目标表;
  3. 最后,创建投递任务。

投递流程

一、通过Dataworks控制台创建MaxCompute表

温馨提示:如果已有MaxCompute表,可以跳过这一步。

1.进入DataWorks控制台工作空间列表页面,鼠标悬停至目标工作空间对应操作列的快速进入,单击数据开发。

        image.png

2.单击左侧数据开发 > 鼠标悬停至+新建图标,单击新建业务流程,弹窗内输入业务名称,然后单击新建即可完成业务流程的创建。

image.png

image.png

3.鼠标悬停至+新建图标,单击新建节点 > MaxCompute > ODPS SQL,弹窗内输入对应的节点类型路径名称,然后单击提交完成新建节点。

image.png

image.png

4.新建节点完成后,即会跳出sql页面,输入sql语句单击运行即可进行表的创建。

CREATE TABLE IF NOT EXISTS tableName
(
  c1  STRING,
  c2  STRING
)
PARTITIONED BY
(
  p1  STRING
)
LIFECYCLE 3;

image.png

二、创建数据源

1. 登录DataWorks控制台
2. 单击左侧导航栏的工作空间列表,单击目标工作空间操作列对应的管理,进入工作空间管理中心。        
image.png
3. 在管理中心页面单击左侧数据源,待数据源页面加载完毕后,单击新增数据源。

image.png

3.1.创建LogHub数据源。

a.在新增数据源弹框中选择LogHub。


    image.png

b.填写新增LogHub数据源对话框中的配置。  

    image.png  


参数

描述

数据源名称

数据源名称必须以字母、数字、下划线组合,且不能以数字和下划线开头。

数据源描述

对数据源进行简单描述,不得超过80个字符。

LogHub Endpoint

LogHub的Endpoint,格式为http://example.com。详情请参见服务入口

Project

目标日志服务的项目名称。

AccessKey ID

访问密钥中的AccessKey ID,您可以进入控制台的用户信息管理页面进行复制。

AccessKey Secret

访问密钥中的AccessKey Secret,相当于登录密码。

  c.单击测试连通性

  d.连通性测试通过后,单击完成

3.2.创建MaxCompute数据源。⚠️注意:如果已绑定MaxCompute引擎,默认会已创建好一个名为odps_first的数据源,可以跳过此步骤。

a.在新增数据源弹框中选择MaxCompute。

image.png

b.填写新增MaxCompute数据源对话框中的配置。

      image.png

参数

描述

数据源名称

数据源名称必须以字母、数字、下划线组合,且不能以数字和下划线开头。

数据源描述

对数据源进行简单描述,不得超过80个字符。

ODPS Endpoint

MaxCompute的Endpoint,格式为http://example.com。详情请参见服务入口

ODPS项目名称

MaxCompute项目名称。

AccessKey ID

访问密钥中的AccessKey ID,您可以进入控制台的用户信息管理页面进行复制。

AccessKey Secret

访问密钥中的AccessKey Secret,相当于登录密码。

三、离线同步方式(如需实时同步,请参考第四步骤)

  1. 数据源页面,单击左上角的图标,选择全部产品 > DataStudio(数据开发)进入数据开发页面。


image.png

image.png    

  1. 数据开发页面,鼠标悬停至新建图标,单击业务流程


      image.png

  1. 新建业务流程对话框中,输入业务流程名称描述,单击新建
  2. 展开已创建的目标业务流程,右键单击数据集成,选择新建 > 离线同步

      image.png

  1. 新建节点对话框中,选择业务流程路径,并输入节点名称

      image.png

  1. 单击确认,进入离线节点编辑页面,如下图:

      image.png

  1. 参考下图进行配置并测试连通性。

      image.png

  1. 测试连通性为可连通后单击下一步
  2. 任务配置字段映射参考下图示例。

      image.png

image.png

image.png

 10.单击保存 > 运行 > 运行,即可开启任务投递。

      image.png

image.png

 11.可以在控制台下方区域查看运行的日志。

      image.png

四、实时同步方式(如需离线同步,请参考第三步骤)

  1. 数据源页面,单击左上角的图标,选择全部产品 > DataStudio(数据开发)进入数据开发页面。

      image.png

image.png

  1. 数据开发页面,鼠标悬停至新建图标,单击业务流程

      image.png

  1. 新建业务流程对话框中,输入业务流程名称描述,单击新建
  2. 展开已创建的目标业务流程,右键单击数据集成,选择新建 > 实时同步

      image.png

  1. 新建节点对话框中,选择业务流程路径,并输入节点名称,然后单击确定完成业务流程的创建。

      image.png

  1. 单击确认后,则会进入实时节点编辑页面,如下图:

      image.png

  1. 输入选项中LogHub输出选项中MaxCompute分别拖拽至实时节点编辑页面。

      image.png

  1. 单击Loghub后会弹出Loghub节点配置弹窗请参考下图进行配置。

      image.png

  1. 单击MaxCompute后会弹出MaxCompute节点配置弹窗请参考下图进行配置。

      image.png

 10. 单击右侧边栏基本配置会弹出基本配置弹窗请参考下图进行配置。

      image.png

 11. 进行字段映射配置,先通过鼠标对LoghubMaxCompute进行连接,然后单击MaxCompute进行字段映射配置,请参考下图。

      image.png                        

image.png

image.png


12.点击保存 > 提交

image.png

13.点击提交后会弹出提示框,单击确定即可完成任务提交,此时已完成实时同步任务的基本配置。。

14.单击右侧边栏运维进入运维中心页面。

      image.png

15.单击左侧实时同步任务,即可加载出已提交的实时同步任务信息,随后请在操作列单击启动按钮则会弹出启动弹窗提示如下。

      image.png

16.在启动弹窗中根据自己需求点选相关配置后单击确定即可启动任务,并在当前页面观察任务运行状态等信息。

      image.png

五、查看MaxCompute表中数据

参考第三步骤《通过Dataworks控制台创建MaxCompute表》进入sql页面编写sql查询语句如下:

语句1查询分区:SHOW PARTITIONS tablename;

语句2以指定分区为条件查询数据:SELECT * FROM tablename WHERE p1 = '1111111';

    image.png

六、常见问题

1.投递后数据为空常见原因
  • 检查原始数据中是否存在该字段(只能投递日志服务中的字段,不支持json嵌套字段投递)
  • 日志服务的字段名称填写是否正确
  • MaxComputer侧的字段类型是否正确,日志服务中类型与MaxComputer不一样,所以建议在MaxComputer中创建String类型字段重新投递


相关实践学习
日志服务之使用Nginx模式采集日志
本文介绍如何通过日志服务控制台创建Nginx模式的Logtail配置快速采集Nginx日志并进行多维度分析。
目录
相关文章
|
10天前
|
数据采集 机器学习/深度学习 DataWorks
DataWorks产品评测:大数据开发治理的深度体验
DataWorks产品评测:大数据开发治理的深度体验
59 1
|
1月前
|
DataWorks 搜索推荐 数据挖掘
DataWorks: 驾驭数据浪潮,解锁用户画像分析新纪元
本文详细评测了DataWorks产品,涵盖最佳实践、用户体验、与其他工具对比及Data Studio新功能。内容涉及用户画像分析、数据管理作用、使用过程中的问题与改进建议,以及Data Studio的新版Notebook环境和智能助手Copilot的体验。整体评价肯定了DataWorks在数据处理和分析上的优势,同时也指出了需要优化的地方。
125 24
|
1月前
|
SQL DataWorks 数据可视化
阿里云DataWorks评测:大数据开发治理平台的卓越表现
阿里云DataWorks是一款集数据集成、开发、分析与管理于一体的大数据平台,支持多种数据源无缝整合,提供可视化ETL工具和灵活的任务调度机制。其内置的安全体系和丰富的插件生态,确保了数据处理的高效性和安全性。通过实际测试,DataWorks展现了强大的计算能力和稳定性,适用于中小企业快速搭建稳定高效的BI系统。未来,DataWorks将继续优化功能,降低使用门槛,并推出更多灵活的定价方案,助力企业实现数据价值最大化。
|
1月前
|
SQL 分布式计算 DataWorks
DataWorks产品测评|基于DataWorks和MaxCompute产品组合实现用户画像分析
本文介绍了如何使用DataWorks和MaxCompute产品组合实现用户画像分析。首先,通过阿里云官网开通DataWorks服务并创建资源组,接着创建MaxCompute项目和数据源。随后,利用DataWorks的数据集成和数据开发模块,将业务数据同步至MaxCompute,并通过ODPS SQL完成用户画像的数据加工,最终将结果写入`ads_user_info_1d`表。文章详细记录了每一步的操作过程,包括任务开发、运行、运维操作和资源释放,帮助读者顺利完成用户画像分析。此外,还指出了文档中的一些不一致之处,并提供了相应的解决方法。
|
1月前
|
分布式计算 DataWorks 搜索推荐
聊聊DataWorks这个大数据开发治理平台
聊聊DataWorks这个大数据开发治理平台
73 2
|
1月前
|
机器学习/深度学习 存储 数据采集
解锁DataWorks:一站式大数据治理神器
解锁DataWorks:一站式大数据治理神器
66 1
|
1月前
|
分布式计算 DataWorks 搜索推荐
DataWorks产品评测:大数据开发治理平台的最佳实践与体验
DataWorks是阿里云推出的一款大数据开发治理平台,集成了多种大数据引擎,支持数据集成、开发、分析和任务调度。本文通过用户画像分析的最佳实践,评测了DataWorks的功能和使用体验,并提出了优化建议。通过实践,DataWorks在数据整合、清洗及可视化方面表现出色,适合企业高效管理和分析数据。
102 0
|
2月前
|
存储 分布式计算 数据挖掘
数据架构 ODPS 是什么?
数据架构 ODPS 是什么?
572 7
|
2月前
|
存储 分布式计算 大数据
大数据 优化数据读取
【11月更文挑战第4天】
70 2
|
15天前
|
分布式计算 Shell MaxCompute
odps测试表及大量数据构建测试
odps测试表及大量数据构建测试

相关产品

  • 日志服务