【实验】阿里云大数据助理工程师认证(ACA)- ACA认证配套实验-04-DataIDE基本操作(上)

本文涉及的产品
RDS MySQL Serverless 基础系列,0.5-2RCU 50GB
云数据库 RDS MySQL,集群系列 2核4GB
推荐场景:
搭建个人博客
云数据库 RDS MySQL,高可用系列 2核4GB
简介: 【实验】阿里云大数据助理工程师认证(ACA)- ACA认证配套实验-04-DataIDE基本操作

一、 实验概述


DataWorks(数据工场,原大数据开发套件DataIDE)是阿里云数加重要的PaaS平台产品,提供数据集成、数据开发、数据管理、数据治理、数据分享等全方位的产品服务,一站式开发管理的界面,帮助企业专注于数据价值的挖掘和探索。


DataWorks基于MaxCompute作为核心的计算、存储引擎,提供了海量数据的离线加工分析、数据挖掘的能力。


通过DataWorks,可对数据进行传输、转换、集成的操作,从不同的数据存储引入数据,对数据进行转化和开发,最后将数据输送到其他数据系统。

二、实验目的

通过创建项目、同步数据、编写SQL程序、配置调度任务、运维监控等环节,实现完整的数据处理流程。


三、 实验场景

模拟Mysql数据库为生产系统,实现从生产系统抽取数据到MaxCompute中,进行数据自动化分析处理。


第 1 章:实验准备


1.1 申请阿里云资源


在弹出的左侧栏中,点击 创建资源 按钮,开始创建实验资源。

资源创建过程需要1-3分钟。完成实验资源的创建后,用户可以通过 实验资源 查看实验中所需的资源信息,例如:阿里云账号等。


1.2 资源环境准备


登录云中沙箱,进入实验,点击“实验资源”,查看所需具体资源。

本实验需开通资源为MaxCompute和RDS。


20200711125546865.png


点击“创建资源”,即可进入实验环境。(由于实验环境一旦开始创建则进入计时阶段,建议学员先基本了解实验具体的步骤、目的,真正开始做实验时再进行创建)

20200711125605975.png


创建资源需要几分钟时间,请耐心等候……

说明:


企业别名:即主账号ID;


子用户名称和子用户密码:登录实验环境以及配置MaxCompute 数据源时需要;


AKID和AK Secret:系统为本用户分配的登录验证密钥信息,在配置客户端及数据源时应用;


控制台url:登录实验环境的地址;


1.3 进入实验环境


步骤一:登录管理控制台

资源开通后,点击左侧菜单栏中“控制台url”链接,进入用户登录页面。


2020071112565245.png


输入资源提供的“子用户名称”和“子用户密码”登录。

登陆成功后,进入管理控制台页面:

步骤二:打开“DataWorks”

展开左侧菜单,点击“产品与服务”,在“大数据(数加)”产品列表中,点击“DataWorks”。

20200711125725188.png

步骤三:创建项目

创建项目需要管理员权限,沙箱实验环境默认创建完项目:

20200711125742668.png


步骤四:进入数据开发

选中项目,点击“进入数据开发”,则进入“数据开发”环境。

20200711125804374.png

第 2 章:实验内容


2.2 数据同步


本小节实验目的:实现从MySQL数据源同步数据到MaxCompute中。

在DataWorks中,通常使用数据集成功能,将您的系统中产生的业务数据定期导入到工作区,通过SQL任务的计算后,再将计算结果定期导出到您指定的数据源中,以便进一步展示或运行使用。

20200711125841176.png


2.1.1 新建RDS数据库


1)创建实例

云中沙箱实验环境已创建完成RDS数据库实例。登录管理控制台,在“产品与服务”列表中,选择“云数据库RDS版”。


20200711125902158.png


选择地域,查看实例。(地域选择请查看实验资源中开通的地域。)


20200711125921506.png


点击实例后面的“管理”,进入管理页面。


20200711125941825.png

2)创建数据库

打开左侧菜单栏中的“数据库管理”菜单,点击“创建数据库”。


20200711130001761.png

输入数据库名称,选择字符集,然后点击创建。

20200711130055420.png


点击“刷新”按钮,查看状态。数据库创建成功后,状态显示“运行中”。

3)创建账号


打开左侧菜单栏的“账号管理”,点击“创建账号”,跳转到账号创建页面。

20200711130122898.png


账号类型选择“普通账号”,设置账号密码,并给授权数据库,然后点击确定。

20200711130144451.png


账号创建成功后,用户账号状态显示“激活”。


20200711130203102.png


4)登录数据库


点击页面上方的“登录数据库”按钮,跳转到数据库登录页面。

20200711130221287.png


输入账号密码,点击登录。

20200711130237825.png


登录成功后,默认显示如下页面。即可进行相关数据库操作。

2020071113025533.png



2.1.2 数据上传到RDS


1)新建表


登录RDS库,在顶部“SQL操作”菜单中,打开“SQL窗口”。


20200711130317918.png


创建表t_dml_data,用于模拟存储业务系统的生产数据。

输入SQL建表语句,点击“执行”,成功后刷新左侧列表,窗口可显示刚建的表。

20200711130337837.png


建表语句如下:


create table IF NOT EXISTS t_dml_data ( detail_id bigint, sale_date datetime, province VARCHAR (20), city VARCHAR (20), product_id bigint, cnt bigint, amt double, PRIMARY KEY (detail_id) );

2)上传本地数据


在顶部“数据方案”菜单栏中,选择“导入”。


20200711130405136.png



点击“新增任务”,选择数据文件类型、数据表名称、数据文件等信息,然后点击“开始”,执行数据导入任务。


20200711130428657.png


如下图,导入任务完成后,会显示数据导入详情。


20200711130446295.png



关闭详情,可看到该任务。

20200711130503267.png


点击左侧列表中的刷新按钮,可看到表,右键选择“打开表”,可看到表中的数据信息。

20200711130520854.png


2.1.3 ODPS中添加RDS数据源

打开数据开发页面,点击“DataWorks”图标, 在下拉列表中选择“数据集成”。

20200711130537833.png


点击左侧菜单中的 “数据源”,然后点击右上角的 “新增数据源”,如下图所示


2020071113055526.png



弹出 “新增数据源”对话框,选择关系型数据库MySQL。

20200711130613103.png

在”新增MySQL数据源”弹出框中填写相关配置项;


◆ 数据源名称:自定义


◆ RDS实例ID: 查看实验资源中的“实例”信息


◆ RDS实例主账号ID: 查看实验资源中的“企业别名”信息


◆ 数据库名:前面章节创建的数据库名称


◆ 用户名:登录数据库的用户名


◆ 密码:登录数据库的密码


20200711130634509.png

点击“测试连通性”,数据库连接测试成功后,点击“完成”。如下图所示:

20200711130652876.png

数据源自动添加到数据源列表中。


20200711130710134.png


2.1.4 同步RDS数据到ODPS

1)新建业务流程

打开数据开发页面。展开左侧菜单,点击“数据开发”,然后新建“业务流程”。


20200711130728179.png


弹出“新建业务流程”对话框,输入业务名称

20200711130746389.png

2)新建数据同步节点


在数据集成中点击“离线同步”。

20200711130808340.png

弹出“新建节点”对话框,输入节点名称,点击“提交”。


20200711130824946.png


3)双击节点,进行数据同步设置。


①选择数据源

设置数据来源,选择MySQL库,rds_lab数据源,t_dml_data表。

设置数据去向,选择ODPS库,odps_first数据源,点击一键生成目标表。

填写目标表的分区信息。本示例中,分区为变量${sdate}

20200711130842773.png


一键生成目标表,注意修改SQL语句的表名,然后点击“新建表”。

20200711130858740.png


②字段映射


源表和目标表进行字段映射。选择“同名映射”。


20200711130920842.png

③设置通道控制信息。

20200711130937123.png


④调度配置

在右侧“参数配置”中给变量赋值:sdate=2017,设置调度周期和时间。

20200711130958907.png

在“调度依赖中”,点击“使用工作空间根节点”,点击“保存”。


20200711131016485.png


4)同步数据

设置完成后,“提交”业务流程。

20200711131038227.png


选择要提交的“节点名称”,填写“备注”,然后点击“提交”。


20200711131057387.png

提交成功后,显示如图所示信息:

20200711131116695.png

点击“运行”,执行数据同步任务

20200711131136116.png

当数据同步完成后,节点状态图表变成如下图所示:


20200711131155575.png

目录
相关文章
|
13天前
|
存储 SQL 分布式计算
Java连接阿里云MaxCompute例
要使用Java连接阿里云MaxCompute数据库,首先需在项目中添加MaxCompute JDBC驱动依赖,推荐通过Maven管理。避免在代码中直接写入AccessKey,应使用环境变量或配置文件安全存储。示例代码展示了如何注册驱动、建立连接及执行SQL查询。建议使用RAM用户提升安全性,并根据需要配置时区和公网访问权限。具体步骤和注意事项请参考阿里云官方文档。
|
16天前
|
机器学习/深度学习 数据可视化 大数据
阿里云大数据的应用示例
阿里云大数据应用平台为企业提供高效数据处理与业务洞察工具,涵盖Quick BI、DataV及PAI等核心产品。DT203课程通过实践教学,帮助学员掌握数据可视化、报表设计及机器学习分析技能,提升数据驱动决策能力。Quick BI简化复杂数据分析,DataV打造震撼可视化大屏,PAI支持全面的数据挖掘与算法应用。课程面向CSP、ISV及数据工程师等专业人士,为期两天,结合面授与实验,助力企业加速数字化转型。完成课程后,学员将熟练使用阿里云工具进行数据处理与分析。[了解更多](https://edu.aliyun.com/training/DT203)
|
25天前
|
存储 分布式计算 大数据
大数据革新在即,阿里云EMR如何布局DeltaLake引领行业潮流?
【8月更文挑战第26天】大数据时代,实时处理与分析能力对企业至关重要。Delta Lake 作为高性能、可靠且支持 ACID 事务的开源存储层,已成为业界焦点。阿里云 EMR 深度布局 Delta Lake,计划深化集成、强化数据安全、优化实时性能,并加强生态建设与社区贡献。通过与 Spark 的无缝对接及持续的技术创新,阿里云 EMR 致力于提供更高效、安全的数据湖解决方案,引领大数据处理领域的发展新方向。
29 3
|
25天前
|
存储 分布式计算 监控
揭秘阿里云EMR:如何巧妙降低你的数据湖成本,让大数据不再昂贵?
【8月更文挑战第26天】阿里云EMR是一种高效的大数据处理服务,助力企业优化数据湖的成本效益。它提供弹性计算资源,支持根据需求调整规模;兼容并优化了Hadoop、Spark等开源工具,提升性能同时降低资源消耗。借助DataWorks及Data Lake Formation等工具,EMR简化了数据湖构建与管理流程,实现了数据的统一化治理。此外,EMR还支持OSS、Table Store等多种存储选项,并配备监控优化工具,确保数据处理流程高效稳定。通过这些措施,EMR帮助企业显著降低了数据处理和存储成本。
31 3
|
25天前
|
存储 分布式计算 大数据
阿里云 EMR 强势助力,与阿里云大数据体系共创辉煌,把握时代热点,开启生态建设之旅
【8月更文挑战第26天】阿里云EMR(Elastic MapReduce)是一种大数据处理服务,与阿里云的多个服务紧密结合,共同构建了完善的大数据生态系统。EMR与对象存储服务(OSS)集成,利用OSS提供可靠、低成本且可扩展的数据存储;与MaxCompute集成,实现深度数据分析和挖掘;还支持数据湖构建服务,加速数据湖的搭建并简化数据管理与分析过程。EMR提供多种编程接口及工具,如Hive、Spark和Flink等,帮助用户高效完成大数据处理任务。
28 2
|
27天前
|
存储 人工智能 搜索推荐
飞天大数据平台产品问题之阿里云OpenSearch的定义如何解决
飞天大数据平台产品问题之阿里云OpenSearch的定义如何解决
|
1月前
|
存储 人工智能 分布式计算
阿里云智能大数据演进
本文根据7月24日飞天发布时刻产品发布会、7月5日DataFunCon2024·北京站:大数据·大模型.双核时代实录整理而成
|
20天前
|
机器学习/深度学习 分布式计算 BI
MaxCompute 与阿里云其他服务的协同工作
【8月更文第31天】在当今的数据驱动时代,企业需要处理和分析海量数据以获得有价值的洞察。阿里云提供了一系列的服务来满足不同层次的需求,从数据存储到高级分析。MaxCompute(原名 ODPS)作为阿里云的大规模数据处理平台,提供了强大的计算能力和丰富的功能,可以与阿里云的其他服务无缝集成,形成完整的大数据解决方案。本文将探讨 MaxCompute 如何与其他阿里云服务协同工作,包括存储服务 OSS、数据分析服务 Quick BI 以及机器学习平台 PAI。
19 0
|
1月前
|
存储 运维 Cloud Native
"Flink+Paimon:阿里云大数据云原生运维数仓的创新实践,引领实时数据处理新纪元"
【8月更文挑战第2天】Flink+Paimon在阿里云大数据云原生运维数仓的实践
214 3
|
2月前
|
存储 分布式计算 定位技术
高德地图与阿里云MaxCompute:构建智慧出行的数据引擎
通过与阿里云MaxCompute的紧密结合,高德地图成功构建了一个高效、稳定的大数据处理平台,实现了从数据采集到价值输出的全过程自动化。这不仅提升了数据处理效率,还极大地改善了用户体验,为智慧出行的发展奠定了坚实的基础。随着技术的不断进步,未来高德地图还将探索更多创新的应用场景,持续推动地图服务向智能化方向演进。

热门文章

最新文章