【实操系列】 从0~1,基于DMS面向AnalyticDB PostgreSQL的数据ETL链路开发

本文涉及的产品
阿里云百炼推荐规格 ADB PostgreSQL,4核16GB 100GB 1个月
RDS PostgreSQL Serverless,0.5-4RCU 50GB 3个月
推荐场景:
对影评进行热评分析
简介: 本文以RDSPG 到 ADBPG 的数据链路作为案例,介绍了如何从0~1,基于DMS进行ETL数据链路开发


背景

PostgreSQL数据库目前被广泛应用于企业的在线业务,这款数据库也被业界誉为“最先进的开源数据库”。 本文介绍了AnalyticDB PostgreSQL如何能够使用DMS进行业务调度,完成面向RDS PG的实现定时调度的数据EL链路,开发并让企业可以同时享受PostgreSQL在OLTP & OLAP的场景下的全面能力。


工具介绍

本文使用了dms来实现了整个链路的调度, 使用了oss介质作为中间态的存储,将数据从PostgreSQL 加载到OSS后,落入ADB PG Serverless版本中,实现T+1的数据分析。


优势:

  1. 数据基于oss低成本存储实现归档,永不删除
  2. 数据从RDS(可以是PG也可以是MySQL),T+1加载到ADB PG Serverless版本中做高性能分析
  3. 基于DMS配置自动调度框架,白屏化,低代码。


约束:

  1. RDS源表中的数据,需要能够通过条件来增量归档。下面的例子是通过t_src表中的c date列,实现按天归档。


方案框架:


step by step流程 (大约20~30分钟可完成)

资源准备

注意:本方案对 rds 的pg14版本暂不支持; 支持pg9.4 到13 的版本;

  1. 已有一台开通的rds pg; (确认您的版本在pg9~pg13之间)若无RDS PG,可购买创建
  2. 开通adb pg serverless版本,(疫情期间,我们提供了疫情礼包,包含计算引擎); 在创建好实例之后,请先进行初始设置,需要设置实例账号;
  3. 开通oss,并建好对应的bucket,有对应的access key,secret可以。
  1. 若您没有oss,可免费开启该服务: https://www.aliyun.com/product/oss
  2. 当oss服务已开启,可登录oss控制台 : https://oss.console.aliyun.com/bucket
  3. 需要创建一个的oss bucket,需要保证该bucket和RDS PG 和 ADBPG在同一个region内;


  1. 建立bucket以后: 点击进入bucket,记录你的bucket信息;包括 bucket_host, bucket_name,获取方式如下;

  1. 怎么获取access_key 和 secret_key,在控制台右上角点击自己的头像,去到AccessKey管理

进入后可查看secret,记录好自己的两个关键key;


执行流程


第一步:数据和服务准备

理论上用户在RDSPG上已经存在着业务数据,本文为了方便理解,创建了样本数据来供测试流程使用;

  1. 登录rds pg,进入选择数据库,进入SQL编辑页面, 创建oss_fdw插件。
  1. 通过dms登录rds pg,运行SQL: create extension if not exists oss_fdw;  
  2. 创建一个表作为源表,运行SQL:

 

   create table t_src (a int, b int, c date);

   insert into t_src select generate_series(1, 1000), 1, now();

   select * from t_src;


  1. 为RDS PG创建一个外表写入

-- 导入外表插件

create extension if not exists oss_fdw;  


-- 创建外表服务;

create  SERVER ossserver FOREIGN DATA WRAPPER oss_fdw OPTIONS

    (host '[bucket_host]' , id '[access_key]', key '[secret_key]',bucket '[bucket_name]');


  1. 开通adb pg serverless版本,进入数据库, 在SQL编辑页面进行创建oss_fdw插件,创建目标表,并配置oss 外表。登录adb pg,运行SQL:

--添加外表访问插件

create extension if not exists oss_fdw;  


-- 和rdspg侧保持表的定义相同,创建一张表; 注意serverless版本暂不支持主键;

create table t_target (a int, b int, c date);

-- 导入外表访问插件

create extension if not exists oss_fdw;  


-- 创建外表访问链接服务

create server oss_serv

   foreign data wrapper oss_fdw

   options (

       endpoint '[bucket_host]',

       bucket '[bucket_name]');


create user mapping for public

   server oss_serv

   options (

     id '[access_key]',

     key '[secret_key]');


  1. 通过dms配置自动归档和加载任务流

第二步: 配置ETL任务;

1. RDS PG 抽取任务配置

  1. 新建任务编排。 在DMS页面上,集成与开发(DTS)”-> 任务编排->新建任务流 , 设置任务流名称“rdspg数据导入oss”

  1. 新建RDS PG归档流程: 选择新建任务流,数据加工 -> 单实例SQL,拖入面板

  1. 命名该实例,点击,改名为’rds数据抽取‘
  2. 点击实例设置按钮进入配置,并将如下SQL贴入,此段为将数据从RDS PG数据写入OSS存储介质中;

drop FOREIGN TABLE if exists oss_${mydate};


CREATE FOREIGN TABLE if not exists oss_${mydate}

   (a int,

    b int,

    c date)

    SERVER ossserver

    OPTIONS ( dir 'rds/t3/${mydate}/', delimiter '|' ,

        format 'csv', encoding 'utf8');

       


insert into oss_${mydate} select * from t_src where c >= '${mydate}';


  1. 填入该任务关联的数据库名称; (注意搜索方法为,回到SQL窗口,切换到需要的数据库,在头部有数据库对应的已public开头的库名,点击右侧进行复制; )

  1. 返回任务配置页,将刚刚复制的库名放入搜索框后,选中结果



  1. 点击“变量设置”一栏,配置日期变量mydate, 时间格式变为 yyyyMMdd; 注意:这个变量在后面的SQL中要用到,用来根据日期做增量归档。

2. 配置ADB PG的加载任务

  1. 新建ADB PG加载任务,数据加供 -> 单实例SQL,将其拖拽至面板,改名为“ADBPG数据加载”

  1. 点击内容设置,首先选取对应的ADBPG数据库实例(方法如上)

  1. 编辑对应SQL,在ADBPG侧进行数据从OSS抽取

CREATE FOREIGN TABLE if not EXISTS  oss_${mydate}(  

    a int ,

    b int ,

    c date

) server oss_serv

   options (

       dir 'rds/t3/${mydate}/',

       format 'csv',

       delimiter '|',

       encoding 'utf8');



insert into t_target select * from oss_${mydate};

  1. 配置日期变量mydate,作用同上。

3. 任务调度和执行时间配置

  1. 配置调度流程,先跑RDS PG任务,再跑ADB PG,选中RDS PG框下面圆点,拖到ADB PG上。

  1. 找到调度配置,开启调度, 并配置调度策略。配置调度页。选择你希望的任务调度周期,每次调度会对数据进行rdspg侧的导出和adbpg的导入,保证数据的同步;

4. 测试和发布

  1. 点击“试运行”,测试无误后,点击“发布”

总结

该产品能力支持用户快速完成一套免费的数据ETL链路,支持用户将现有的RDS PG的数据落入OSS 中,并加载至ADBPG中进行分析; 也可以落在OSS上后,以外表的形式进行联邦分析;

用法: 对于海量分区数据的分析,在ADBPG中有明显的加速效果; 对于TB~PB级的数据,可做到秒级查询,汇总并对接主流的BI产品,目前AnalyticDB PostgreSQL被广泛应用在企业的数字化转型,实现云端数据平台部署;


参考文档

【1】dms案例,https://www.alibabacloud.com/help/zh/data-management-service/latest/regularly-back-up-data-from-relational-databases-to-oss-in-dms

【2】rds pg外表使用说明 https://help.aliyun.com/document_detail/164815.html

【3】adb pg外表使用说明 https://help.aliyun.com/document_detail/164815.html

相关实践学习
MySQL基础-学生管理系统数据库设计
本场景介绍如何使用DMS工具连接RDS,并使用DMS图形化工具创建数据库表。
相关文章
|
11天前
|
存储 SQL 数据挖掘
数据无界、湖仓无界, Apache Doris 湖仓一体解决方案全面解读(上篇)
湖仓一体架构融合了数据湖的低成本、高扩展性,以及数据仓库的高性能、强数据治理能力,高效应对大数据时代的挑战。为助力企业实现湖仓一体的建设,Apache Doris 提出了数据无界和湖仓无界核心理念,并结合自身特性,助力企业加速从 0 到 1 构建湖仓体系,降低转型过程中的风险和成本。本文将对湖仓一体演进及 Apache Doris 湖仓一体方案进行介绍。
数据无界、湖仓无界, Apache Doris 湖仓一体解决方案全面解读(上篇)
|
2天前
|
人工智能 自然语言处理 关系型数据库
DMS+AnalyticDB助力钉钉AI助理,轻松玩转智能问数
DMS+AnalyticDB助力钉钉AI助理,轻松玩转智能问数
|
3月前
|
人工智能 数据库 自然语言处理
拥抱Data+AI|DMS+AnalyticDB助力钉钉AI助理,轻松玩转智能问数
「拥抱Data+AI」系列文章由阿里云瑶池数据库推出,基于真实客户案例,展示Data+AI行业解决方案。本文通过钉钉AI助理的实际应用,探讨如何利用阿里云Data+AI解决方案实现智能问数服务,使每个人都能拥有专属数据分析师,显著提升数据查询和分析效率。点击阅读详情。
拥抱Data+AI|DMS+AnalyticDB助力钉钉AI助理,轻松玩转智能问数
|
4月前
|
人工智能 数据挖掘 数据库
拥抱Data+AI|破解电商7大挑战,DMS+AnalyticDB助力企业智能决策
本文为数据库「拥抱Data+AI」系列连载第1篇,该系列是阿里云瑶池数据库面向各行业Data+AI应用场景,基于真实客户案例&最佳实践,展示Data+AI行业解决方案的连载文章。本篇内容针对电商行业痛点,将深入探讨如何利用数据与AI技术以及数据分析方法论,为电商行业注入新的活力与效能。
拥抱Data+AI|破解电商7大挑战,DMS+AnalyticDB助力企业智能决策
|
4月前
|
人工智能 数据库 决策智能
拥抱Data+AI|如何破解电商7大挑战?DMS+AnalyticDB助力企业智能决策
本文为阿里云瑶池数据库「拥抱Data+AI」系列连载第1篇,聚焦电商行业痛点,探讨如何利用数据与AI技术及分析方法论,为电商注入新活力与效能。文中详细介绍了阿里云Data+AI解决方案,涵盖Zero-ETL、实时在线分析、混合负载资源隔离、长周期数据归档等关键技术,帮助企业应对数据在线重刷、实时分析、成本优化等挑战,实现智能化转型。
拥抱Data+AI|如何破解电商7大挑战?DMS+AnalyticDB助力企业智能决策
|
7月前
|
SQL DataWorks 数据库连接
实时数仓 Hologres操作报错合集之如何将物理表数据写入临时表
实时数仓Hologres是阿里云推出的一款高性能、实时分析的数据库服务,专为大数据分析和复杂查询场景设计。使用Hologres,企业能够打破传统数据仓库的延迟瓶颈,实现数据到决策的无缝衔接,加速业务创新和响应速度。以下是Hologres产品的一些典型使用场景合集。
|
7月前
|
DataWorks 负载均衡 Serverless
实时数仓 Hologres产品使用合集之如何导入大量数据
实时数仓Hologres是阿里云推出的一款高性能、实时分析的数据库服务,专为大数据分析和复杂查询场景设计。使用Hologres,企业能够打破传统数据仓库的延迟瓶颈,实现数据到决策的无缝衔接,加速业务创新和响应速度。以下是Hologres产品的一些典型使用场景合集。
|
7月前
|
SQL 消息中间件 OLAP
OneSQL OLAP实践问题之实时数仓中数据的分层如何解决
OneSQL OLAP实践问题之实时数仓中数据的分层如何解决
110 1
|
7月前
|
SQL 分布式计算 关系型数据库
实时数仓 Hologres操作报错合集之指定主键更新模式报错主键数据重复,该如何处理
实时数仓Hologres是阿里云推出的一款高性能、实时分析的数据库服务,专为大数据分析和复杂查询场景设计。使用Hologres,企业能够打破传统数据仓库的延迟瓶颈,实现数据到决策的无缝衔接,加速业务创新和响应速度。以下是Hologres产品的一些典型使用场景合集。
|
7月前
|
SQL 分布式计算 MaxCompute
实时数仓 Hologres产品使用合集之如何在插入数据后获取自增的id值
实时数仓Hologres是阿里云推出的一款高性能、实时分析的数据库服务,专为大数据分析和复杂查询场景设计。使用Hologres,企业能够打破传统数据仓库的延迟瓶颈,实现数据到决策的无缝衔接,加速业务创新和响应速度。以下是Hologres产品的一些典型使用场景合集。
实时数仓 Hologres产品使用合集之如何在插入数据后获取自增的id值

热门文章

最新文章

相关产品

  • 云原生数据仓库 AnalyticDB PostgreSQL版
  • 云数据库 RDS PostgreSQL 版