阿里妈妈Dolphin智能计算引擎基于Flink+Hologres实践

简介: 徐闻春阿里妈妈事业部-技术专家

image.png

用户打开淘宝 App 时,后台会有两种类型请求,第一种类型是满足用户诉求自然推荐第二种请求是满足用户和商家综合诉求广告推荐。

例如开淘宝看到某品牌是因为该品牌使用阿里妈妈营销产品登录后,会圈选人群进行广告投放被圈选的人会看到广告。

image.png

商家端营销产品主要目标是服务于广告主,帮助广告主进行人群投放,从而提升经营效果。此类营销产品覆盖的场景非常广泛,包括人群圈选、洞察分析Lookalike人群推荐等场景

这些场景会有OLAP分析、AI算法和实时特征计算的基础能力需求,基于这样一个数据+算法综合能力需求背景下,阿里妈妈自研了Dolphin引擎。

image.png

Dolphin引擎是一个分析 AI 一体化超融合引擎,拥有OLAP 分析计算、 Streaming 流计算、 batch 批量计算 AI 算法计算能力这些能力基于SQL 组件和 Index Build 组件构建。

SQL 组件主要能力是 SQL 义、路由负载均衡、联邦查询。 Index Build 组件主要负责智能索引多级索引

Dolphin引擎主要解决两个问题,一个是超大规模场景下使用通用计算方法性能问题;第二个就是降低业务方使用引擎成本,甚至做到对底层引擎无感知。,很多通用引擎并不能直接解决业务的性能问题,因此需要对数据做索引以实现查询优化。另外,Flink Hologres存在一定学习成本。因此,我们 Flink Hologres之上搭建了这一套业务引擎,让用户使用Flink Hologres简单,甚至FlinkHologres引擎存在无感知。

Dolphin引擎提供了自研索引智能物化、智能索引选择、异构数据源查询和近似计算几个功能

智能物化指能够自动将SQL转化为物化视图,无需人工手动操作。实现方式为对业务历史查询 SQL 进行分析,比如哪些广告主对哪些时间周期数据使用频率更高可以选择将高频使用数据进行物化。智能索引会分析 SQL 查询语句,判断条件命中率,推荐不同索引,推荐目标为让索引对数据查询过滤量最大。近似计算主要针对大规模数据,计算其近似结果。

目前,我们的业务规模 2w+ core每日请求量2亿+QPS3000+支撑百万级广告主PB 级数据。

另外Dolphin 引擎是基于 Flink+ Hologres之上搭建业务引擎,因此能够非常高效地支撑其他业务,很多业务直接对接Dolphin引擎即可直接使用 Flink+ Hologres能力使用成本非常低对外支撑了阿里集团内 10 -> + U 支持人群圈选洞察分析能力。

image.png

我们对底层引擎的要求为高性能、可扩展。如果底层引擎性能不高,上层再做优化时效果会打折扣;同时,底层引擎足够可扩展,上层才能基于底层引擎做更多改进和扩展,承接新业务场景。FlinkHologres能够满足以上两个需求

实时引擎Flink支持低延迟,支持自动调优,且技术稳定成熟。用户在 Dolphin Streaming平台上提交 SQL 时,SQL会被转译为flink SQL,提交给Flink引擎,这里会利用Flink autoscale自动配置调优功能来自动调整降低可了用户对 Flink 学习成本和调优维护成本。

Dolphin引擎与 Hologres在过去四年实现了非常多共建成长。19 年,Dolphin引擎与 Hologres共建了 bitmap 计算能力,实现业界公开信息里最大规模、最高性能、最低使用成本的圈人能力20 年共建了千万级人群中心,实现广告人群统一管理21 年,Dolphin引擎支撑了算法业务场景,使用Hologres向量计算能力支撑算法业务,主要支撑推荐算法里粗排召回计算环节22年,支持了算法实时特征开发能力,这里就应用到 Hologres实时写入和点查能力,实现更高效实时开发。最终,所有能力整合在一起,形成了超融合一体化引擎能力。

image.png

OLAP计算核心在于解决超大规模问题。广告场景拥有整个集团所有数据,为了让广告主有更好用户体验,需要支持更复杂计算和更快速度。我们面临的业务挑战有单SQL几十张表join、单表最高万亿行规模、单表基数最高百万级和万级标签日更新

这里有两张表,分别是用户基础性别年龄)和用户店铺表用户店铺类型),需要查询 20 30 逛过某品牌用户数量。如果数据量很少,通用引擎可以很快得出结果。但如果SQL涉及join的表有几十张,而且还可能存在万亿级表此类情况下通用计算引擎无法完成计算因此我们共建了一套 bitmap 计算方案

方案的查询流程为:用户输入逻辑执行 SQL Dolphin引擎将用户逻辑执行 SQL 转译物理执行 SQL ,然后传递给 Holo Master执行。

方案的索引构建流程为:MaxCompute将标签数据进行预处理,然后将它构建bitmap 索引,再接入到 Hologres集群里,即可实现的 bitmap 查询

Bitmap查询拥有更好的性能和存储 QPS 200+,平均百毫秒查询性能达到用户交互式分析需求。

image.png

Open API 可直接以服务接口调用形式调用 Flink 提交作业暂停作业为了降低用户的学习成本,提升开发效率,Dolphin使用OpenAPI 做了丰富实践开发了一套 Dolphin Streaming实时开发平台。

DolphinStreamingHologresFlink 做了封装,对用户暴露更简单开发接口Dolphin SQL 用户提交 Dolphin SQL 只需像使用数据库一样开发实时作业使用数据库时直接创建一张表再写入,无需再考虑存储、配置认证信息、token信息等。

用户在阿里妈妈交互式研发平台上提交 Dolphin SQL 通过 Dolphin  Streaming 进行处理 SQL 解析,转译元数据管理,将 SQL 通过 OpenAPI发送给 Flink拉起作业做执行执行完后,数据会写到 Hologres然后通过Dolphin SQL将写入 Hologres特征直接查询出来,整个流程非常顺滑和简单。

demo1:计算用户最近50条行为序列

用户最近 50 条行为序列是算法序列模型里常用的特征,一般需要开发行为序列特征,如果用Dolphin Streaming 开发,只需简单三步

第一步定义数据源表。Biztype直接填写为tt tt 是阿里实时数据源。这里如果要写Flink SQL,则需要登入tt管理平台,查询topic并订阅subID

第二步,定义输出表Biztype=feature 代表写入到 Hologres,然后填好 PK 参数即可。

第三,定义计算逻辑。SQL 执行完之后,数据源源不断地写入通过 select user_id product_id from ** where user _id=**即可查询用户特征。

  demo2:实时Debug功能。

在实时开发时,经常需要查看上游数据源,以往的方式通常需要定义一个print输出源,然后定义输入源和执行逻辑,将数据写到标准输出,再通过查看日志才能获取到上游数据源而我们实现了更简单的方式。

通过 create table 形式注册一张表以后,执行 select user_id from某表结果即直接展示表的明细。

image.png

广告主在使用营销平台时,面对如何推广、通过何种推广渠道等常常束手无策。我们从算法角度为广告主解决了问题。通过广告主点击某些信息某些点位时,判断意向,结合意向和广告主本身商家店铺宝贝信息,为其推荐更能提升经营效果宝贝以及效果更优的渠道。

基于以上需求,我们开发一套用于捕获用户实时行为特征作业。通过 Flink 计算商家实时行为日志,存储到 Hologres之后,在线模型直接读特征,通过实时特征提升模型推荐效果。

该方案主要使用了 Flink 实时计算Hologres实时写入以及行表点查能力,使整体开发效率提升三倍以上。

image.png

算法里万物皆可向量表示,尤其是在推荐算法和召回流程中,经常使用向量召回获取Top K 相似对象这里使用到Hologres向量召回能力。

Lookalike是广告产品的重要能力,核心基于种子人群特征选择相似人群,为店铺拉新。原理为针对已经在店铺有过行为用户,分析特征,寻找特征相似用户,将宝贝推广给此类用户

基于向量的Lookalike算法实现过程如下:

第一步,广告主圈种子人群。

第二步基于种子人群计算中心向量,再通过中心向量从整体用户里召回Top K相似用户。

传统算法下,Dolphin使用没有向量召回能力的传统数据库,将数据导入到数据库中先由Dolphin查询数据库,计算种子人群中心向量。然后通过FaissTop K 向量查出。传统方案整体运维和管理成本,因此我们对其进行了升级。直接使用 Dolphin 调用 Hologres,因为Hologres能够同时支持数据库功能向量功能,简化了计算流程。

image.png

基于 Hologres向量召回能力,我们开发了实时向量召回,用户直接输入 SQL 即可调用底层 HologresDolphin封装了容灾负载均衡等重要能力。简单地填入参数即可完成批量向量召回的计算。

image.png

基于 Flink+ Hologres 强大能力,我们得以建设更贴近业务领域Dolphin引擎主要包括基于 bitmap 高性能 OLAP 计算更简单灵活实时开发能力以及基于Hologres强大 AI 向量召回能力。

未来,我们会在智能化、一体化方面继续探索,不断提升用户体验。

Q&A

Q:优化后的向量召回也是基于Faiss做的吗?

A:不是,是基于阿里自研的向量召回库Proxima

QProxima性能相较于Faiss更优吗?

A整体上proxima性能更好,在这里选择Hologres不是因为proxima性能,而是Hologres技术方案架构更简单,运维管理成本更低。

相关实践学习
阿里云云原生数据仓库AnalyticDB MySQL版 使用教程
云原生数据仓库AnalyticDB MySQL版是一种支持高并发低延时查询的新一代云原生数据仓库,高度兼容MySQL协议以及SQL:92、SQL:99、SQL:2003标准,可以对海量数据进行即时的多维分析透视和业务探索,快速构建企业云上数据仓库。 了解产品 https://www.aliyun.com/product/ApsaraDB/ads
相关文章
|
4月前
|
SQL 人工智能 API
Apache Flink 2.1.0: 面向实时 Data + AI 全面升级,开启智能流处理新纪元
Apache Flink 2.1.0 正式发布,标志着实时数据处理引擎向统一 Data + AI 平台迈进。新版本强化了实时 AI 能力,支持通过 Flink SQL 和 Table API 创建及调用 AI 模型,新增 Model DDL、ML_PREDICT 表值函数等功能,实现端到端的实时 AI 工作流。同时增强了 Flink SQL 的流处理能力,引入 Process Table Functions(PTFs)、Variant 数据类型,优化流式 Join 及状态管理,显著提升作业稳定性与资源利用率。
539 0
|
2月前
|
存储 消息中间件 人工智能
云栖实录|实时计算 Flink 全新升级 - 全栈流处理平台助力实时智能
本文根据 2025 云栖大会演讲整理而成,演讲信息如下 演讲人:黄鹏程 阿里云智能集团计算平台事业部实时计算Flink版产品负责人
261 1
云栖实录|实时计算 Flink 全新升级 - 全栈流处理平台助力实时智能
|
7月前
|
存储 消息中间件 OLAP
基于 Flink+Paimon+Hologres 搭建淘天集团湖仓一体数据链路
本文整理自淘天集团高级数据开发工程师朱奥在Flink Forward Asia 2024的分享,围绕实时数仓优化展开。内容涵盖项目背景、核心策略、解决方案、项目价值及未来计划五部分。通过引入Paimon和Hologres技术,解决当前流批存储不统一、实时数据可见性差等痛点,实现流批一体存储与高效近实时数据加工。项目显著提升了数据时效性和开发运维效率,降低了使用门槛与成本,并规划未来在集团内推广湖仓一体架构,探索更多技术创新场景。
1505 3
基于 Flink+Paimon+Hologres 搭建淘天集团湖仓一体数据链路
|
8月前
|
存储 消息中间件 Kafka
基于 Flink 的中国电信星海时空数据多引擎实时改造
本文整理自中国电信集团大数据架构师李新虎老师在Flink Forward Asia 2024的分享,围绕星海时空智能系统展开,涵盖四个核心部分:时空数据现状、实时场景多引擎化、典型应用及未来展望。系统日处理8000亿条数据,具备亚米级定位能力,通过Flink多引擎架构解决数据膨胀与响应时效等问题,优化资源利用并提升计算效率。应用场景包括运动状态识别、个体行为分析和群智感知,未来将推进湖仓一体改造与三维时空服务体系建设,助力数字化转型与智慧城市建设。
862 3
基于 Flink 的中国电信星海时空数据多引擎实时改造
|
5月前
|
存储 消息中间件 搜索推荐
京东零售基于Flink的推荐系统智能数据体系
摘要:本文整理自京东零售技术专家张颖老师,在 Flink Forward Asia 2024 生产实践(二)专场中的分享,介绍了基于Flink构建的推荐系统数据,以及Flink智能体系带来的智能服务功能。内容分为以下六个部分: 推荐系统架构 索引 样本 特征 可解释 指标 Tips:关注「公众号」回复 FFA 2024 查看会后资料~
391 1
京东零售基于Flink的推荐系统智能数据体系
|
6月前
|
资源调度 Kubernetes 流计算
Flink在B站的大规模云原生实践
本文基于哔哩哔哩资深开发工程师丁国涛在Flink Forward Asia 2024云原生专场的分享,围绕Flink On K8S的实践展开。内容涵盖五个部分:背景介绍、功能及稳定性优化、性能优化、运维优化和未来展望。文章详细分析了从YARN迁移到K8S的优势与挑战,包括资源池统一、环境一致性改进及隔离性提升,并针对镜像优化、Pod异常处理、启动速度优化等问题提出解决方案。此外,还探讨了多机房容灾、负载均衡及潮汐混部等未来发展方向,为Flink云原生化提供了全面的技术参考。
387 9
Flink在B站的大规模云原生实践
|
7月前
|
SQL 存储 NoSQL
Flink x Paimon 在抖音集团生活服务的落地实践
本文整理自抖音集团数据工程师陆魏与流式计算工程冯向宇在Flink Forward Asia 2024的分享,聚焦抖音生活服务业务中的实时数仓技术演变及Paimon湖仓实践。文章分为三部分:背景及现状、Paimon湖仓实践与技术优化。通过引入Paimon,解决了传统实时数仓开发效率低、资源浪费、稳定性差等问题,显著提升了开发运维效率、节省资源并增强了任务稳定性。同时,文中详细探讨了Paimon在维表实践、宽表建设、标签变更检测等场景的应用,并介绍了其核心技术优化与未来规划。
728 10
Flink x Paimon 在抖音集团生活服务的落地实践
|
7月前
|
资源调度 Kubernetes 调度
网易游戏 Flink 云原生实践
本文分享了网易游戏在Flink实时计算领域的资源管理与架构演进经验,从Yarn到K8s云原生,再到混合云的实践历程。文章详细解析了各阶段的技术挑战与解决方案,包括资源隔离、弹性伸缩、自动扩缩容及服务混部等关键能力的实现。通过混合云架构,网易游戏显著提升了资源利用率,降低了30%机器成本,小作业计算成本下降40%,并为未来性能优化、流批一体及智能运维奠定了基础。
447 9
网易游戏 Flink 云原生实践

热门文章

最新文章

相关产品

  • 实时计算 Flink版