阿里云云原生数据湖分析DLA SQL(兼容Presto) CU版重磅发布,助力企业低成本分析OSS数据价值

本文涉及的产品
云数据库 RDS MySQL,集群系列 2核4GB
推荐场景:
搭建个人博客
对象存储 OSS,20GB 3个月
RDS MySQL Serverless 基础系列,0.5-2RCU 50GB
简介: Presto作为OLAP界领先的分析引擎在国内外有着广泛的应用,各个公司要么在自己的机房自建Presto,要么在云上使用ECS自建Presto来使用,但是开源的Presto在用户学习成本、数据摄入、生态兼容性、高可用、对云上数据的支持度方面还是有一些薄弱。因此阿里云数据湖分析团队打造了一个DLA SQL(兼容Presto)CU版本,今天给大家介绍一下它的一些特性。

一、背景介绍

1.1 什么样的客户需要数据湖

在数据处理领域,数据湖相对来说是一个比较新的概念,它的提出可以很好地帮助企业应对当前数据场景越来越多、数据结构越来越复杂、数据处理的需求越来越多样化的问题。传统的单机数据库技术倾向于大一统,一个数据库可以解决数据存储、在线交易、在线分析、离线报表等功能,好处是简单,数据只有一份,缺点是各个功能都做了取舍,很难解决规模的问题。为了突破数据规模的瓶颈,大数据技术更倾向于针对单独领域做深度定制,比如海量文件存储使用HDFS、海量对象存储使用OSS/S3、宽表存储使用BigTable/HBase、嵌套数据使用MongoDB、大规模TP数据使用PolarDB、大规模AP数据使用ADB/Clickhouse、日志数据使用LogService等等。
在很多企业里面,不同的部门业务不同,采用的数据方案也不同。在企业发展的前期,更多是靠业务模式驱动、流量驱动,数据复杂度的问题还不明显,后期则需要精细化运营、向数据要红利,数据管理的难度就成为企业的痛点。数据湖的出现可以很好地解决这个痛点,这也是为什么各个云厂商都推出了数据湖产品,数据湖产品和解决方案越来越得到客户的认可。Gartner 2020年发布的报告显示目前已经有39%的用户在使用数据湖,34%的用户考虑在1年内使用数据湖。

1.2 阿里云数据湖分析(DLA)整体方案

arch.png


阿里云数据湖分析(DLA)产品提供了数据湖的一站式解决方案。OSS对象存储采用KV的技术架构,可以实现无限扩展,是公认的数据湖存储底座。用户可以通过离线ETL和在线增量ETL将在线数据和实时增量数据,同步到OSS中,然后对数据做深度的计算和分析。用户也可以直接访问这些在线库,做在线的联邦分析。为了方便用户管理数据湖中的数据,我们提供了统一的数据湖管理方案。数据湖管理可以统一存储数据湖中数据的元信息给计算引擎使用,另外还提供元数据动态爬取功能,可以动态解析OSS数据目录结构和数据格式,省去了用户手动创建表和分区的工作。同时,DLA跟DMS和QuickBI进行了深度集成,方便用户实现更丰富的开发和管理逻辑。

DLA同时提供了SQL和Spark两个引擎,SQL基于Presto实现,可以实现高效的在线分析,主要面向用户探索式分析、报表以及轻量ETL的场景;Spark可以实现用户自定义代码和复杂计算逻辑以及超大规模ETL的场景。本文主要介绍DLA SQL(兼容Presto),关于DLA Spark的介绍可以阅读: 阿里云云原生数据湖分析DLA Serverless Spark重磅发布,助力企业低成本挖掘OSS数据价值

二、DLA SQL(兼容Presto)架构解析

2.1 Presto简介

DLA SQL是基于开源的Presto引擎打造的交互式分析引擎,Presto是Facebook开源出来的、初衷就是为了解决使用Hive来进行在线分析速度太慢的问题,它采用全内存流水线化的执行引擎, 相较于其它引擎会把中间数据落盘的执行方式,Presto在执行速度上有很大的优势,特别适合用来做在线数据分析。

hive-vs-presto.png

Presto另一个令人瞩目的特性多数据源联合查询,一个公司的数据根据业务的特点可能散落在很多地方比如MySQL, OSS, HDFS, TableStore等等, Presto内置的Connector机制使得我们可以对这些不同数据源的数据关联查询,而不用事先把这些数据挪到同一个存储介质,特别适合数据湖场景这种数据源多种多样的场景。

跟很多分析引擎只实现了部分SQL语义不同(比如Clickhouse为了单表查询的性能做优化,不支持多表JOIN这种常见的SQL场景),而Presto则是实现完整的SQL语义,你不用担心你有什么SQL语义是Presto不支持的。

总结来说Presto是一款全内存流水线化执行的、支持通过Connector机制查询各种异构数据源、完整实现了SQL语义的这么一款数据分析引擎。

2.2 使用开源Presto自建的挑战

由于上述Presto各种优异的特点各个公司都纷纷采用Presto来进行在线的数据的分析,但是使用开源Presto自建会缺失一些企业级的特性。

首先是运营维护成本高。开源自建意味着需要手动搭建Presto集群,对Presto的各项配置参数进行调优,碰到各种性能使用问题需要从头研究;Presto原生对于库表列权限的支持很弱,需要配套搭建比如Ranger之类的另外一个系统来进行权限的管理;由于直接支持Presto协议的云服务不多,周边的调度、BI等配套软件都得自建。这样第一次上手时间很长,从数天到数周不等;另外后续这一整套软件栈的维护也是成本很高的。

其次是使用门槛比较高。比如如果我们要新添加一个数据源来进行分析,我们必须要修改整个集群的配置,然后对Presto集群进行重启才能生效,这个至少会导致5分钟左右的不可用,而如果中间有任何配置错误,要进行调试时间就更长了;再比如由于Presto不是一个完全自包含的系统,对于权限控制之类的可能要依赖Ranger之类的系统,因此你对Presto使用可能还要跨越到另外一个系统去做一些配置,无法做到一站式;再一个使用门槛高的点在于它的SQL是要求严格类型匹配的,比如下面这样的SQL直接运行在Presto里面会报错的:

SELECT * 
FROM TBL
WHERE date_col < '2020-05-30'; -- date_col是date类型的

报错的原因在于 date_col 的类型是date, 而 '2020-05-30' 的类型是string,类型不匹配,无法进行查询,这会使得习惯于使用MySQL等数据库的分析师非常不适应。

缺乏对云上数据源的原生支持。 我们越来越多的业务会基于云上服务来搭建,会使用很多云上的数据源比如阿里云的AnalyticDB, TableStore等等,要分析这些数据源,Presto是没有自带Connector的,当然用户可以自己基于Connector机制来实现,但是要实现一个稳定高效的Connector也是很有挑战的一件事情,不是每个公司都愿意投资人力资源来做。

最后Presto的Coordinator在架构上是个单点。 当集群运行的SQL很多,或者整个集群很大,Coordinator解析调度查询的压力、Coordinator与Worke之间同步任务信息的压力会很大,Coordinator会有宕机的风险,一旦宕机整个集群会不可用,这对于一个要在生产环境使用的服务来说是不可接受的。

2.3 DLA SQL(兼容Presto)的架构

DLA SQL(兼容Presto)的目标是提供比开源自建更高的性价比、开箱即用的体验、方便的数据摄入、MySQL生态的简单易用、内置各种优化的Presto分析计算服务。 下面我们来介绍一下为了达到这个目标我们采用的架构。

presto-arch.png

我们整个架构的核心是中间的Presto集群,跟开源的Presto不同的是,我们做了大量的优化,首先我们内置了多Coordinator的方案,去除了这个架构上的单点,并且这个多Coordinator的方案可以横向扩展,以应对负载的上升。

其次我们对整个集群元数据这块进行了抽象整理,跟开源版本依赖各个Connector提供元数据信息不同的是,DLA SQL有统一的元数据中心。这使得我们对新的数据源的支持从部署期(依赖类似mysql.properties)移到了运行期, 使得我们可以动态增添各种数据源。统一的元数据也使得我们可以方便地内置支持库表列方面的权限授权体系,帮助企业守好数据权限这一关。

在整个Presto集群的最前面是我们的FrontNode节点,这个节点的作用是向用户提供MySQL协议的接口,用户通过MySQL协议提交查询到FrontNode, FrontNode把查询转换成Presto风格的SQL提交给后端的Presto集群,然后监控Presto集群上任务的状态并且把最终的结果返回给用户;FrontNode的另外一个职责是对请求进行分发,因为我们同时支持Serverless和CU版本,FrontNode会根据用户购买的服务形态对用户的请求进行分发,分发对对应的Presto集群。

DLA SQL目前支持两种售卖形态Serverless和独享版,Serverless的版本针对小客户、对资源隔离要求不是那么高的用户、低频偶发查询类的用户;独享版针对对于资源隔离要求比较高、或者是查询非常高频的场景。

三、DLA SQL(兼容Presto) VS 开源自建Presto

基于上述DLA SQL的架构我们来对比一下DLA SQL相比开源自建Presto的优势:

  • 超高性价比:相比用户自建Presto提高2到10倍
  • 开箱即用
  • 方便上手的SQL体验
  • 方便的数据摄入
  • 高可用: 内置Coordinator HA
  • 连接器的优化
  • MySQL生态支持
  • 内置完善的权限控制体系

3.1 超高性价比:相比用户自建Presto提高2到10倍

DLA SQL在性能、价格方面对开源Presto也有着明显的优势。首先看性能, 下面是DLA Presto与开源Presto在TPCH 10x上的一个性能对比:

机器规格: 2台Worker 4C16G
机器价格: 528元/月/台
数据源: 阿里云OSS
测试数据: TPCH, scale factor: 10X, 数据格式Parquet

perf.png

可以看出DLA SQL的性能几乎所有的查询性能都比开源Presto要好。再来看价格,基于云服务搭建的大数据的分析平台典型的架构如下:

  • 使用OSS来保存所有的数据 -- OSS价格低,而且可以无限扩展
  • 使用ECS来搭建Presto分析OSS上的数据。

那么这里的成本分为三块:

  • OSS存储的成本: 只跟用户的数据量有关,跟上层分析引擎没有关系。
  • Presto占用的ECS的成本
  • Presto调用OSS读取数据产生的OSS接口调用费用

Presto占用ECS的成本这一块,我们以上述2台4C16G来计算,自建Presto一个月的成本在 528 x 2 = 1056元

如果用户是比较低频的使用,推荐使用DLA SQL的Serverless版本。比如每天运行一次TPCH 10X的22条查询:那么每个月的费用如下:

  • Serverless版本是按照扫描量计费的,每TB28元。
  • TPCH 10x Parquet格式22条SQL扫描量大约: 20GB, 每天扫一遍,那么一个月一共扫描量为: 20G * 30 = 600G。
  • 一个月的费用为: 600G * 28 / 2014 = 16元

由此可见在低频场景下Serverless版本的费用是自建Presto的 1/66。当然用户使用的频率不是一个常数,如果用户是高频访问,那么可能使用DLA CU版本对用户会更划算,因为CU版本是按照CU数计费,而不是按照扫描量计费的,这样用户不管运行多少查询收费都是一样的。这种模式跟用户自建Presto很像,但是我们会支持基于时间段以及集群的负载进行扩缩容,比如早上9点到晚上18点之间集群使用满负载运行,而18点之后分析师下班之后,使用人数下降我们可以自动对集群进行缩容,所以如果根据时间段来进行扩缩容,DLA SQL CU版本还是会比用户自建便宜一半左右。下图是几种方案的成本分布情况:

按照时间段与负载进行无痛扩缩容的功能我们正在开发中,近期上线。
要实现无痛扩缩容(扩缩容过程中不影响正在执行的查询)不是那么容易的哦。

price-comp.png

另外一块花费是Presto调用OSS读取数据产生的OSS接口调用费用, 在这一块我们做了大幅优化,平均来看可以帮助用户节省OSS调用费用 60% - 90%(https://yq.aliyun.com/articles/760352)。

oss-invoke-count.png

所以平均来看,去除超低频的用户使用场景以及超高频的用户使用场景,DLA SQL的性价比可以做到自建Presto的2到10倍。

3.2 开箱即用

对于用户自建Presto,从搭建集群开始,到最终完成一个最简单的报表大概的步骤如下:

kaixiang-bad.png

取决于你搭建Presto集群的方式,是完全手动搭建,还是基于Docker之类的服务,整个过程可能在30分钟到5小时之间;搭建完成之后为了运行一条Presto SQL,你需要通过命令行登陆到你的ECS服务器上去,然后利用Presto提供的命令行工具来进行数据的查询;或者再搭建一个hue之类的系统,并且做好对接,也可以进行数据的查询;然后由于Presto对于BI报表的兼容性不是那么的广泛,你需要去下载/搭建自己的BI报表系统、任务定时调度系统,这个时间在几个小时左右;因此为了通过自建的Presto来完成一个最简单的BI报表您需要的时间在几小时到几天之间。

而如果使用DLA SQL,整个过程是这样的:

kaixiang-good.png

首先在“搭建Presto”的环节与自建不同,用户只需要在DLA页面点击开通即可;然后进行数据查询,直接在DLA控制台就可以查询,或者任何支持MySQL协议的客户端都可以查询;最后因为DLA SQL支持了MySQL协议,云上有现成的BI服务: QuickBI,有现成的调度服务阿里云DMS, 阿里云DataWorks等等,因此BI报表展示以及任务的定时调度均可以在5分钟内完成;整个过程可以在30分钟内完成,真正做到开箱即用,而且这种方便、省时间不只是节省你第一次搭建集群时候的时间,因为所有的相关配套都有现成服务提供,你不需要维护任何东西,在整个大数据分析的生命周期内都会节省时间,真正做到开箱即用、全托管

3.3 方便上手的SQL体验

相比开源自建Presto,DLA SQL在SQL体验方面做了很多优化,方便数据分析师们使用。首先我们内置了类型的隐式转换,比如分析师可以直接把一个date类型与一个string类型进行比较,忽略了这些类型转换的细节,节省下来的时候可以专注于做更重要的数据探查。

其次我们所有的元数据是由我们统一元数据服务来管理,而不像开源Presto是由各个Connector单独提供,这样用户要新添加一个数据源只要使用我们的 CREATE SCHEMA 语句来对元数据进行操作就好了,不涉及任何集群的运维操作。比如要添加一个mysql数据源,我们执行如下的命令即可:

 CREATE SCHEMA mysql_db WITH DBPROPERTIES (
   CATALOG = 'mysql', 
   LOCATION = 'jdbc:mysql://rm-******fake.mysql.rds.aliyuncs.com:3306/mysql_dbname',
   USER = 'mysql_username',
   PASSWORD = 'mysql_password',
   INSTANCE_ID = 'mysql_instance_id',
   VPC_ID = 'mysql_vpcid'
 );

更少的运维操作意味着整个服务更高的可用性,更平滑的使用体验。

3.4 方便的数据摄入

一个引擎要能分析数据,你首先得知道数据在哪里,在云上目前很大一部分数据是保存在对象存储比如阿里云OSS里面的,OSS的特点是便宜,可以以比较低的成本存储海量的数据。而OSS上数据的上传与后续的分析往往的脱节的,通常不是同一个人完成,对于分析的人来说OSS上到底有哪些数据,它们的结构是怎么样的是个难题,DLA SQL在这一块提供了两个配套的服务: OSS元数据发现和一键建湖。

OSS元数据发现

meta-discovery.png

OSS元数据发现的作用是自动扫描你OSS上的所有的数据文件,建立相应的库、表结构,这样在你需要分析的时候,所有的元数据都已经自动建立好了,省去你找数据、建库建表的繁琐。

一键建湖

one-click.png

一键建湖针对的场景是用户的数据在RDS里面的场景,它自动帮助你把RDS里面的数据同步到OSS上,每天在你设置的时间点自动同步一次,保持数据最新。并且自动建立好相应的库表结构,这样在你需要对数据进行分析的时候,你直接分析就好了,而且分析的数据是OSS上的,对您RDS不会有任何压力负载,做到真正的“敢分析”。关于数据摄入的详细介绍可以阅读: 阿里云云原生数据湖分析DLA重磅发布-数据湖管理,助力企业一站式管理OSS数据湖存储数据

3.5 高可用: 内置Coordinator HA

在开源的Presto架构中Presto Coordinator是个单点,如果因为CPU/内存或者底层物理机的原因导致Coordinator不可用,会导致整个集群不可用,从而影响用户的使用,DLA SQL内置了多Coordinator HA,当一个Coordinator宕机,另外一个Coordinator会自动接管,保证整个集群的可用性:
coordinator-ha.png

3.6 连接器的优化

Presto本身支持了大量的Connector来连接各种数据源,但是云上的有些数据源还是没有覆盖到的,比如阿里云这边自研的MaxCompute和Tablestore服务,在用户中使用是很广泛的,DLA SQL对他们也进行了支持。

DLA SQL也针对一些数据源进行了性能和成本方面的优化,比如针对阿里云OSS进行数据分析的话会产生大量的OSS的调用,调用量也是有一些调用费用的,DLA SQL对这方面进行了优化,大幅降低了OSS的调用次数,降低用户在OSS上的调用成本,如下图:
oss-invoke-count.png
再比如针对RDS类的数据源(MySQL/SQLServer/PostgreSQL/Oracle),DLA SQL会自动探测底层的索引情况,然后选择合适的字段对TableScan的Split进行拆分,从而加大并发度。这个特性对于RDS数据量很大的时候非常有用。

3.7 MySQL生态的支持

Presto本身实现了自己的client-server端的交互协议,但是由于大量的外围客户端软件/BI软件/调度软件并不支持Presto的这种协议,使得用户在使用上可选择的软件比较受限,很多时候还需要用户自建一些服务。DLA SQL通过在Presto集群前端部署一个SQL接入层节点,并且在SQL接入层中实现了MySQL协议,把用户的MySQL协议过来的请求转给Presto集群,再把Presto集群返回来的数据返回给客户端,使得DLA SQL兼容了MySQL协议,可以使用MySQL生态庞大的周边软件设施,方便了用户,降低用户在这些周边软件上的投入。

mysql.png

3.8 内置完善的权限控制体系

开源Presto在权限控制方面支持的比较简单的(SystemAccessControl),用户如果要实现完善的权限控制需要去配合另外的组件比如Ranger才能达到权限控制的目的,导致操作复杂无法做到一站式,很多企业因为这种复杂性就直接放弃了权限相关的控制,机密数据有暴露的风险。DLA SQL内置了用户熟悉了MySQL风格的权限控制机制, 你可以使用你熟悉的权限控制语句对权限进行控制,在DLA SQL内部一站式进行数据查询、权限管控的工作:

GRANT SELECT on db001.tbl001 to 'user001';
REVOKE SELECT on db001.tbl001 to 'user001';

四、总结与展望

DLA SQL(兼容Presto)的目标是提供比开源自建更高的性价比、开箱即用的体验、方便的数据摄入、MySQL生态带来的简单易用、内置各种优化的数据湖分析计算服务。用户可以先通过使用Serverless版本低成本试用,然后根据使用频率的高低、对资源是否有强独占的需求来决定生产环境使用Serverless版本还是CU版本。DLA SQL还在不断发展中,目前规划中的一些特性包含:

  • 按照时间段或者工作负载进行自动扩缩容,帮助用户节省成本。
  • 支持文件缓存机制,提升查询性能
  • 内置大数据最佳实践,自动拦截Bad SQL

欢迎大家关注我们的钉钉群获取最新的信息:
dingding.png

相关实践学习
借助OSS搭建在线教育视频课程分享网站
本教程介绍如何基于云服务器ECS和对象存储OSS,搭建一个在线教育视频课程分享网站。
相关文章
|
3月前
|
Cloud Native Java 对象存储
面向未来的架构设计:Spring Cloud和Netflix OSS在云原生环境下的发展趋势
展望未来,随着5G、边缘计算等新技术的兴起,微服务架构的设计理念将会更加深入人心,Spring Cloud和Netflix OSS也将继续引领技术潮流,为企业带来更为高效、灵活且强大的解决方案。无论是对于初创公司还是大型企业而言,掌握这些前沿技术都将是在激烈市场竞争中脱颖而出的关键所在。
68 0
|
16天前
|
存储 分布式计算 算法
恭喜小红书!业界最大数据湖0故障迁上阿里云
恭喜小红书!业界最大数据湖0故障迁上阿里云
29 1
|
4月前
|
数据采集 存储 分布式计算
构建智能数据湖:DataWorks助力企业实现数据驱动转型
【8月更文第25天】本文将详细介绍如何利用阿里巴巴云的DataWorks平台构建一个智能、灵活、可扩展的数据湖存储体系,以帮助企业实现数据驱动的业务转型。我们将通过具体的案例和技术实践来展示DataWorks如何集成各种数据源,并通过数据湖进行高级分析和挖掘,最终基于数据洞察驱动业务增长和创新。
278 53
|
2月前
|
Cloud Native Java 对象存储
面向未来的架构设计:Spring Cloud和Netflix OSS在云原生环境下的发展趋势
面向未来的架构设计:Spring Cloud和Netflix OSS在云原生环境下的发展趋势
51 1
|
3月前
|
Cloud Native Java 对象存储
揭秘微服务架构之争:Spring Cloud与Netflix OSS巅峰对决,谁将称霸弹性云原生时代?
近年来,微服务架构成为企业应用的主流设计模式。本文对比了两大热门框架Spring Cloud和Netflix OSS,探讨其在构建弹性微服务方面的表现。Spring Cloud依托Spring Boot,提供全面的微服务解决方案,包括服务注册、配置管理和负载均衡等。Netflix OSS则由一系列可独立或组合使用的组件构成,如Eureka、Hystrix等。两者相比,Spring Cloud更易集成且功能完善,而Netflix OSS则需自行整合组件,但灵活性更高。实际上,两者也可结合使用以发挥各自优势。通过对两者的对比分析,希望为企业在微服务架构选型上提供参考。
61 0
|
4月前
|
存储 分布式计算 监控
揭秘阿里云EMR:如何巧妙降低你的数据湖成本,让大数据不再昂贵?
【8月更文挑战第26天】阿里云EMR是一种高效的大数据处理服务,助力企业优化数据湖的成本效益。它提供弹性计算资源,支持根据需求调整规模;兼容并优化了Hadoop、Spark等开源工具,提升性能同时降低资源消耗。借助DataWorks及Data Lake Formation等工具,EMR简化了数据湖构建与管理流程,实现了数据的统一化治理。此外,EMR还支持OSS、Table Store等多种存储选项,并配备监控优化工具,确保数据处理流程高效稳定。通过这些措施,EMR帮助企业显著降低了数据处理和存储成本。
140 3
|
4月前
|
安全 数据管理 大数据
数据湖的未来已来:EMR DeltaLake携手阿里云DLF,重塑企业级数据处理格局
【8月更文挑战第26天】在大数据处理领域,阿里云EMR与DeltaLake的集成增强了数据处理能力。进一步结合阿里云DLF服务,实现了数据湖的一站式管理,自动化处理元数据及权限控制,简化管理流程。集成后的方案提升了数据安全性、可靠性和性能优化水平,让用户更专注业务价值。这一集成标志着数据湖技术向着自动化、安全和高效的未来迈出重要一步。
88 2
|
4月前
|
存储 机器学习/深度学习 弹性计算
阿里云EMR数据湖文件系统问题之OSS-HDFS全托管服务的问题如何解决
阿里云EMR数据湖文件系统问题之OSS-HDFS全托管服务的问题如何解决
|
4月前
|
安全 对象存储
阿里云EMR数据湖文件系统问题之JindoFSOSS的单一prefix热点的问题如何解决
阿里云EMR数据湖文件系统问题之JindoFSOSS的单一prefix热点的问题如何解决
|
4月前
|
存储 安全 API
阿里云EMR数据湖文件系统问题之JindoFS元数据查询和修改请求的问题如何解决
阿里云EMR数据湖文件系统问题之JindoFS元数据查询和修改请求的问题如何解决