阿里巴巴-茂才:数据质量管理只有规范,没有银弹(2)

简介: 阿里巴巴-茂才:数据质量管理只有规范,没有银弹

列间探查

1)关联字段探查

通常情况下,一张表中不同字段直接有关联关系。比如曝光字段和曝光时长之间有关联关系,有曝光的一定有曝光时长,或者曝光时长大于0的情况下一定有曝光。

或者uv一定大于pv,这种方法可以对dws表进行验证。

表间探查

1)join条件探查

此种情况属于跨表探查。不同的表在做join时,除了探查join条件是否成功,还需要探查join得到的数量是否符合预期。

在题库业务中,出现过因为系统bug,下游表的join条件中,有3%左右的数据join不上,但因为前期没有做此方面的数据探查,导致用了很久才发现此问题。

还有一种情况是业务上两张表必须join上,比如消费表所有的用户都应该出现在用户表,或者所有内容都应该出现在内容维表等。

一般sql如下:


SELECT  count(DISTINCT a.itemid)
FROM    xxx.yyy_log a
LEFT JOIN (
SELECT  itemid               
FROM    xxx.zzzz               
WHERE   ds = '20210916'           
 ) b
ON a.itemid = b.itemid
WHERE   a.dt = '20210916'
AND     b.itemid IS NULL ;









业务探查

1)过滤条件不对

在某些情况下,需要从海量数据中,通过某些过滤条件捞出所需数据。比如客户端打点的规范是一致的,不同的端的用户日志都在一张表中,如果只分析某种数据,需要对数据进行过滤。

此过滤条件一般由业务方同学提供,在数据探查阶段要先做条件过滤,与业务方同学沟通过滤之后的数据是否符合预期。

2)业务上数据重复问题

属于表唯一性探查。此问题与唯一值的现象类似,都是数据有重复。

不同之后在于,某些情况下,虽然数据提供方称了某些列唯一,但在某些业务场景下,数据就是不唯一的。比如题库的某业务中,业务方开始说不同线索得到的q_id不一致,然而q_id来自url,在业务上url确实存在重复的情况,所以q_id有重复的情况。

但在另一种数据重复的问题往往不是业务如此,而是系统bug导致的。比如某种业务中,一本书理论上处理完之后不应该再次处理,但系统的bug导致出现一本书被处理多次的情况。

对于第一种情况,我们在建模时要考虑业务复杂性;而第二种情况,我们要做的是找到有效的数据,去掉脏数据。

3)数据漏斗问题

数据链路中数据漏斗是很关键的数据,在做初步数据探查时,也需要关注数据漏斗。每一层数据丢弃的数量(比例)都要和业务方确认。

比如某一个入库流的处理数据数量和入库数量对比,或者入库数量和入索引数量等,如果比例出现了很大的问题,需要找上游业务方修正。

4)业务上数据分布不合理

“刷子用户”的发现就是一种常见的数据分布不合理,比如某个user的一天的pv在5000以上,我们大概率怀疑是刷子用户,要把这些用户从统计中剔除,并要找到数据上游过滤掉类似用户。

一般sql如下:



SELECT  userid         
,count(*) AS cnt
FROM    xxx.yyyy_log
WHERE   dt = '20210913'
GROUP BY userid
HAVING  cnt > 5000 ;





2  数据开发规范

上面描述了很多数据探查问题,如果认真的做了数据探查,可以避免很多数据质量问题。本部分描述在数据开发环节中开发同学因为经验等原因导致的数据质量问题。

SQL编写问题

1)笛卡尔积导致数据膨胀

此问题往往发生在没有对join条件进行唯一性检查的情况下。因为右边数据不唯一,发生笛卡尔积,导致数据膨胀。如果是某些超大表,除了数据结果不对之外,会产生计算和存储的浪费。

还有一种情况,在单一分区中数据是唯一的,但join时没有写分区条件,导致多个分区同时计算,出现数据爆炸。

这个问题很多同学在开发中遇到了多次,一定要注意。

2)join on where顺序导致结果错误

此问题也是常见问题,因为写错了on和where的顺序,导致结果不符合预期。错误case如下。


SELECT  COUNT(*)
FROM    xxx a
LEFT JOIN yyy b
ON      a.id = b.item_id
WHERE   a.dt = '${bizdate}'
AND     b.dt = '${bizdate}' ;





在上面的sql中,因为b.dt在where条件中,那么没有join上的数据会被过滤掉。

3)inner join和outer join用错问题

此问题偶发,往往是开发同学没有理解业务或者typo,导致结果不符合预期。

写完sql一定要检查,如果有可能请别的同学review sql。

4)时间分区加引号

一般情况下,分区都是string数据类型,但在写sql时,分区不写引号也可以查询出正确的数据,导致有些同学不习惯在分区上加引号。

但某些情况下,如果没有加引号,查询的数据是错误的。所以一定要在时间分区上加引号。

5)表循环依赖问题

在开发时,偶尔会出现三个表相互依赖的问题,这种情况比较少见,而且在数据开发阶段不容易发现,只有再提交任务之后才会发现。

要避免这种情况,需要明确一些开发规范。比如维表和明细表都要从ods表中查得,不能维表和明细表直接互相依赖。对于某些复杂的逻辑,可以通过中间表的形式实现重用。

6)枚举值问题

在做etl时,需要把某些枚举值转化成字符串,比如1转成是、0转成否等。

常见的写法是在sql中写case when。

但对于某种一直增长的枚举值,这种方法不合适,否则增加一种编码就要改一次sql,而且容易出现sql膨胀的问题。

推荐通过与码表join的方法解决此问题。

性能问题

1)join on where顺序的性能问题

上面提到过join的on和where执行顺序的问题,这也关系到join的性能问题。因为是先on后where,建议先把数据量缩小再做join,这也可以提升性能。

(1) 如果是对左表(a)字段过滤数据,则可以直接写在where后面,此时执行的顺序是:先对a表的where条件过滤数据然后再join b 表;

(2) 如果是对右表(b)字段过滤数据,则应该写在on 条件后面或者单独写个子查询嵌套进去,这样才能实现先过滤b表数据再进行join 操作;

如果直接把b表过滤条件放在where后面,执行顺序是:先对a表数据过滤,然后和b表全部数据关联之后,在reduce 阶段才会对b表过滤条件进行过滤数据,此时如果b表数据量很大的话,效率就会很低。因此对于应该在map 阶段尽可能对右表进行数据过滤。

我一般对右表做一个子查询。

2)小维表 map join

在Hive中

若所有表中只有一张小表,那可在最大的表通过Mapper的时候将小表完全放到内存中,Hive可以在map端执行连接过程,称为map-side join,这是因为Hive可以和内存的小表逐一匹配,从而省略掉常规连接所需的reduce过程。即使对于很小的数据集,这个优化也明显地要快于常规的连接操作。其不仅减少了reduce过程,而且有时还可以同时减少Map过程的执行步骤。参考文末链接一。

在MaxCompute中

mapjoin在Map阶段执行表连接,而非等到Reduce阶段才执行表连接,可以缩短大量数据传输时间,提升系统资源利用率,从而起到优化作业的作用。

在对大表和一个或多个小表执行join操作时,mapjoin会将您指定的小表全部加载到执行join操作的程序的内存中,在Map阶段完成表连接从而加快join的执行速度。

文档中给的例子如下:



select /*+ mapjoin(a) */
a.shop_name,
a.total_price,
b.total_price
from sale_detail_sj a join sale_detail b
on a.total_price < b.total_price or a.total_price + b.total_price < 500;



参考文末链接二。

3)超大维表 hash clustering

在互联网大数据场景中,一致性维表的数据量都比较大,有的甚至到几亿甚至十亿的量级,在这个数据量级下做join,会这种任务往往耗时非常长,有些任务甚至需要耗费一天的时间才能产出。

在这种情况下,为了缩短执行时间,通常可以调大join阶段的instance数目,增加join阶段的内存减少spill等,但是instance的数目不能无限增长,否则会由于shuffle规模太大造成集群压力过大,另外内存的资源也是有限的,所以调整参数也只是牺牲资源换取时间,治标不治本。

Hash clustering,简而言之,就是将数据提前进行shuffle和排序,在使用数据的过程中,读取数据后直接参与计算。这种模式非常适合产出后后续节点多次按照相同key进行join或者聚合的场景。

Hash clustering是内置在MaxCompute中,不用显示的指定,很方便。

参考文末链接三。

4) 数据倾斜问题

Hive/MaxCompute在执行MapReduce任务时经常会碰到数据倾斜的问题,表现为一个或者几个reduce节点运行很慢,延长了整个任务完成的时间,这是由于某些key的条数比其他key多很多,这些Key所在的reduce节点所处理的数据量比其他节点就大很多,从而导致某几个节点迟迟运行不完。

常见的情况比如join的分布不均匀,group by的时候不均匀等。

具体的解决方法可以参考文末链接四。

3  数据监控

提交数据任务后,如何能正确及时的监控任务也是非常重要的。在数据监控方面,集团提供了很多强大的产品来解决问题,简单介绍如下。

数据及时性监控(摩萨德)

摩萨德监控是对任务运行状态的监控,包括任务运行出错、未按规定时间运行。摩萨德是对任务的监控,因此特别适合监控数据产出的实时性。比如某些表需要在几点产出,如果没有产出则报警等。当前摩萨德只能在Dataworks使用。

数据产出监控(DQC)

不同于摩萨德对任务的监控,DQC监控是对表和字段的监控,是任务运行后触发监控条件从而触发报警。

数据质量中心(DQC,Data Quality Center)是集团推出的数据质量解决方案,它可以提供整个数据的生命周期内的全链路数据质量保障服务。通过DQC,我们能够在数据生产加工链路上监控业务数据的异常性,如有问题第一时间发现,并自动阻断异常数据对下游的影响,保障数据的准确性。

DQC可以做以下监控

  • 数据产出行数波动监控


  • 业务主键唯一性监控


  • 关键字段空值监控


  • 汇总数据合理性监控


DQC的流程如下:

  • 用户进行规则配置


  • 通过定时的调度任务触发检查任务执行


  • 基于任务配置,获取样本数据


  • 基于计算返回检验结果


  • 调度根据检验结果,决定是否阻断干预(强依赖、弱依赖)


不过DQC虽然很强大,但其配置还是很繁琐的,而且要设置波动规则,需要较长时间观测,表和字段多的时候配置工作特别大。有团队研究了Auto-DQC,可以自动化监控DQC配置。

其它数据质量监控平台

其它值得关注的数据质量监控平台包括

  • Apache Griffin(Ebay开源数据质量监控平台)


  • Deequ(Amazon开源数据质量监控平台)


  • DataMan(美团点评数据质量监控平台)


三  后记

解决数据质量问题没有银弹,数据质量管理不单纯是一个概念,也不单纯是一项技术、也不单纯是一个系统,更不单纯是一套管理流程,数据质量管理是一个集方法论、技术、业务和管理为一体的解决方案。本文简单总结了我们当前遇到的数据质量问题和处理方法,也希望与对数据质量敢兴趣的同学多多交流。

文中部分技术和解决已经在uc和夸克业务上践行,大幅提升了业务的数据质量,拿到较好结果。

链接一:https://developer.aliyun.com/article/67300

链接二:https://help.aliyun.com/document_detail/73785.html

链接三:https://developer.aliyun.com/article/665154https://developer.aliyun.com/article/665246


链接四:https://developer.aliyun.com/article/60908

相关实践学习
基于MaxCompute的热门话题分析
Apsara Clouder大数据专项技能认证配套课程:基于MaxCompute的热门话题分析
相关文章
|
存储 安全 数据管理
数据安全之认识数据资产管理平台
随着企业数字化转型的深入,数据已经成为企业的重要资产。企业需要更加有效地管理和利用数据,以支持业务决策、优化运营和提高竞争力。本文让我们一起来认识数据资产及数据资产管理平台。
1458 1
|
SQL 分布式计算 资源调度
线上 hive on spark 作业执行超时问题排查案例分享
线上 hive on spark 作业执行超时问题排查案例分享
|
分布式计算 监控 大数据
大数据-131 - Flink CEP 案例:检测交易活跃用户、超时未交付
大数据-131 - Flink CEP 案例:检测交易活跃用户、超时未交付
302 0
|
数据采集 JSON 开发者
Python爬虫京东商品详情数据接口
京东商品详情数据接口(JD.item_get)提供商品标题、价格、品牌、规格、图片等详细信息,适用于电商数据分析、竞品分析等。开发者需先注册账号、创建应用并申请接口权限,使用时需遵循相关规则,注意数据更新频率和错误处理。示例代码展示了如何通过 Python 调用此接口并处理返回的 JSON 数据。
|
数据采集 分布式计算 大数据
数据治理之道:大数据平台的搭建与数据质量管理
【10月更文挑战第27天】在数字化时代,数据治理对于确保数据资产的保值增值至关重要。本文探讨了大数据平台的搭建和数据质量管理的重要性及实践方法。大数据平台应包括数据存储、处理、分析和展示等功能,常用工具如Hadoop、Apache Spark和Flink。数据质量管理则涉及数据的准确性、一致性和完整性,通过建立数据质量评估和监控体系,确保数据分析结果的可靠性。企业应设立数据治理委员会,投资相关工具和技术,提升数据治理的效率和效果。
461 2
BurpSuite2021 -- 抓包使用及设置
BurpSuite2021 -- 抓包使用及设置
454 1
|
数据采集 存储 数据管理
CDGA|数据治理:确保数据质量与价值的综合性框架
数据治理是一个系统工程,涉及数据战略、数据架构、数据质量、数据安全、数据合规性、数据生命周期管理以及数据资产管理等多个方面。通过全面、系统地实施数据治理策略,可以确保数据资产的有效利用和价值的最大化。在数字化时代,数据治理已成为企业实现数字战略的基础和保障。
|
数据采集 存储 监控
《数据资产管理实践》方法论梳理
《数据资产管理实践》方法论梳理
808 58
|
数据采集 监控 数据管理
数据质量最佳实践(4):支持范围和多级分区质量监控+按项目和个人管理数据质量【Dataphin V3.11】
在Dataphin数据治理系列:基于数据质量管理,支撑业务快速发展这篇文章中,我们详细的介绍了Dataphin数据质量模块的产品核心能力和产品使用演示。 在Dataphin V3.11版本中,质量新增了下面两个能力: 1、针对复杂的业务分区的校验能力 2、按照项目和个人管理数据质量
663 1
|
数据采集 存储 监控
数据质量最佳实践(2):通过归档和分析异常数据,快速定位质量问题
在Dataphin数据治理系列:基于数据质量管理,支撑业务快速发展这篇文章中,我们详细的介绍了Dataphin数据质量模块的产品核心能力和产品使用演示。 在实际的质量管理过程中,经常需要通过查看异常数据,来确定质量问题产生的原因,从而针对性的修复质量问题,下面我们一起来看下Dataphin质量模块的异常数据归档能力。
801 0
数据质量最佳实践(2):通过归档和分析异常数据,快速定位质量问题