《大数据集成(1)》一1.3 大数据集成:机遇

本文涉及的产品
云原生大数据计算服务 MaxCompute,5000CU*H 100GB 3个月
云原生大数据计算服务MaxCompute,500CU*H 100GB 3个月
简介:

本节书摘来自华章出版社《大数据集成(1)》一书中的第1章,第1.3节,作者 [美] 董欣(Xin Luna Dong)戴夫士·斯里瓦斯塔瓦(Divesh Srivastava),更多章节内容可以访问云栖社区“华章计算机”公众号查看

1.3 大数据集成:机遇

  大数据集成不仅带来许多以“V”维度为特征的挑战,如第1.2节中我们讨论的。另外,大数据集成与管理分析大数据的基础设施也成就许多机遇,以应对这些挑战。我们主要讨论三个这样的机遇。

1.3.1 数据冗余性

  从不同数据源得到的数据通常存在着部分重叠,因而导致要被集成的大量数据源之间存在巨大的数据冗余。
  在我们给出的航班例子中,这一点非常清楚。例如,有关Airline1航空公司的49号航班的Departure Airport、Scheduled Departure Time、Arrival Airpot和Scheduled Arrival Time的信息可以从Airline1、Airport3和Airfare4三个数据源中的任何一个获得。
  1.2.3节和1.2.4节中的案例研究表明多个领域中存在的冗余性。特别地,[Dalvi et al. 2012]的研究中提到在所研究的各个领域中每个实体所出现的数据源的个数平均还是较大的。如图1-3所示,每个旅店的电话号码平均出现在56个数据源中,而每个图书馆主页平均出现在251个数据源中。更进一步,这些高的平均值并不是由于数据分布的极端偏斜造成的;例如超过80%的餐馆电话号码出现在至少10个不同的数据源,如图1-2中的10-coverage曲线所示。类似地,[Li et al. 2012]的研究中判断出股票领域的16个常见属性和航班领域的6个常见属性,这些属性都分别出现在领域内三分之一以上被分析的数据源中。
  数据冗余的一个主要好处是可以有效地处理大数据集成中数据真实性带来的挑战,我们将在第4章对此进行详细讨论。直观地,如果仅有几个数据源提供有重叠的信息,而数据源对某数据项提供的值是有冲突的,则很难确信地判断出真值。但是如果像在大数据集成中一样存在大量的数据源,我们可以使用复杂的数据融合技术来发现真值。
  数据冗余的第二个好处是开始解决大数据集成中数据多样性带来的挑战,找到数据源模式之间的属性匹配,这在模式对齐中至关重要。直观地,如果一个领域存在很大程度的数据冗余,其实体和数据源的二分图具有良好的连通性(如[Dalvi et al. 2012]中所研究的领域),则可以从一组已知的种子实体出发,使用搜索引擎的技术发现该领域内的大部分实体。当这些实体在不同的数据源有不同的对应模式时,我们就可以很自然地找到不同数据源所使用的模式之间的属性匹配。
  数据冗余的第三个好处是能够为一个领域内的大数据集成发现相关数据源,如果数据源没有预先给定的话。直观的方法仍然是利用一个实体和数据源之间的良连通的二分图,从一组已知的种子实体出发,使用搜索引擎技术迭代地一次发现新的数据源和新实体。

1.3.2 长数据

  现实中很重要的一部分大数据是长数据(long data),即关于随时间演化的实体的数据。
  在我们给出的航班的例子中,航班时间表随时间演化,如Airline1.Schedule表所示。现实中,航空公司和飞机场数据源一般提供所估计的航班出发和到达时间,因而会在短时间内不断变化;航空公司的维护修理日志会提供关于飞机质量随时间变化的情况,等等。
  尽管我们在本章中前面讨论的案例研究中没有特别地讨论如何处理长数据,但我们将在后面章节中描述的一些技术,尤其是用于记录链接(第3章)和数据融合(第4章)的技术,很大程度上利用了长数据。
  直观地,现实世界中的实体演化导致它们的属性值随时间变化。包含这些实体的数据源所提供的信息不总是最新的,如Airfare4.Flight表中所示,过期的值是很普遍的。在这种情境下的记录链接和数据融合是具有挑战的,但是可以利用实体演化一般都是一个渐进和相对平滑的过程这一事实:i)即使航班的一些属性(如Scheduled Departure Time)演化,其他属性(如Departure Airport)不一定发生变化;ii)即使实体在短期内进行演化,这些属性值上的变化通常不会很奇特(例如,航空公司报告的一个航班的估计到达时间的变化)。

1.3.3 大数据平台

  近年来,建立在廉价硬件上的集群(如Hadoop)和分布式编程模型(如MapReduce)的可伸缩的大数据平台获得了重大进步,使大数据的管理和分析获益。
  由于大数据集成中的每个任务,模式对齐、记录链接和数据融合都需要很多的计算资源,所以大数据集成会是非常资源密集的。虽然要充分利用已有的大数据平台还有许多工作要做,但这一领域最近的工作已显示这些任务可以被有效地并行化。我们在后续章节将介绍一些这方面的技术,尤其是关于记录链接和数据融合的。

相关文章
|
1月前
|
分布式计算 大数据 Apache
ClickHouse与大数据生态集成:Spark & Flink 实战
【10月更文挑战第26天】在当今这个数据爆炸的时代,能够高效地处理和分析海量数据成为了企业和组织提升竞争力的关键。作为一款高性能的列式数据库系统,ClickHouse 在大数据分析领域展现出了卓越的能力。然而,为了充分利用ClickHouse的优势,将其与现有的大数据处理框架(如Apache Spark和Apache Flink)进行集成变得尤为重要。本文将从我个人的角度出发,探讨如何通过这些技术的结合,实现对大规模数据的实时处理和分析。
109 2
ClickHouse与大数据生态集成:Spark & Flink 实战
|
4月前
|
分布式计算 DataWorks 关系型数据库
MaxCompute 生态系统中的数据集成工具
【8月更文第31天】在大数据时代,数据集成对于构建高效的数据处理流水线至关重要。阿里云的 MaxCompute 是一个用于处理大规模数据集的服务平台,它提供了强大的计算能力和丰富的生态系统工具来帮助用户管理和处理数据。本文将详细介绍如何使用 DataWorks 这样的工具将 MaxCompute 整合到整个数据处理流程中,以便更有效地管理数据生命周期。
142 0
|
1月前
|
分布式计算 大数据 OLAP
AnalyticDB与大数据生态集成:Spark & Flink
【10月更文挑战第25天】在大数据时代,实时数据处理和分析变得越来越重要。AnalyticDB(ADB)是阿里云推出的一款完全托管的实时数据仓库服务,支持PB级数据的实时分析。为了充分发挥AnalyticDB的潜力,将其与大数据处理工具如Apache Spark和Apache Flink集成是非常必要的。本文将从我个人的角度出发,分享如何将AnalyticDB与Spark和Flink集成,构建端到端的大数据处理流水线,实现数据的实时分析和处理。
62 1
|
4月前
|
消息中间件 分布式计算 大数据
RabbitMQ与大数据平台的集成
【8月更文第28天】在现代的大数据处理架构中,消息队列作为数据传输的关键组件扮演着重要的角色。RabbitMQ 是一个开源的消息代理软件,它支持多种消息协议,能够为分布式系统提供可靠的消息传递服务。本篇文章将探讨如何使用 RabbitMQ 与 Hadoop 和 Spark 进行集成,以实现高效的数据处理和分析。
45 1
|
4月前
|
分布式计算 大数据 数据处理
【大数据管理新纪元】EMR Delta Lake 与 DLF 深度集成:解锁企业级数据湖的无限潜能!
【8月更文挑战第26天】随着大数据技术的发展,Apache Spark已成为处理大规模数据集的首选工具。亚马逊的EMR服务简化了Spark集群的搭建和运行流程。结合使用Delta Lake(提供ACID事务保证和数据版本控制)与DLF(加强数据访问控制及管理),可以显著提升数据湖的可靠性和性能。本文通过一个电商公司的具体案例展示了如何在EMR上部署集成Delta Lake和DLF的环境,以及这一集成方案带来的几大优势:增强的可靠性、细粒度访问控制、性能优化以及易于管理的特性。这为数据工程师提供了一个高效且灵活的数据湖平台,简化了数据湖的建设和维护工作。
62 1
|
4月前
|
机器学习/深度学习 设计模式 人工智能
面向对象方法在AIGC和大数据集成项目中的应用
【8月更文第12天】随着人工智能生成内容(AIGC)和大数据技术的快速发展,企业面临着前所未有的挑战和机遇。AIGC技术能够自动产生高质量的内容,而大数据技术则能提供海量数据的支持,两者的结合为企业提供了强大的竞争优势。然而,要充分利用这些技术,就需要构建一个既能处理大规模数据又能高效集成机器学习模型的集成框架。面向对象编程(OOP)以其封装性、继承性和多态性等特点,在构建这样的复杂系统中扮演着至关重要的角色。
70 3
|
5月前
|
存储 JSON DataWorks
DataWorks产品使用合集之如何通过数据集成将API接口产生的数据集成到DataWorks
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
|
5月前
|
分布式计算 DataWorks 调度
DataWorks产品使用合集之在使用MaxCompute进行数据集成同步到OSS时,出现表名和OSS文件名不一致且多了后缀,该如何处理
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
|
5月前
|
数据采集 分布式计算 大数据
MaxCompute产品使用合集之数据集成中进行数据抽取时,是否可以定义使用和源数据库一样的字符集进行抽取
MaxCompute作为一款全面的大数据处理平台,广泛应用于各类大数据分析、数据挖掘、BI及机器学习场景。掌握其核心功能、熟练操作流程、遵循最佳实践,可以帮助用户高效、安全地管理和利用海量数据。以下是一个关于MaxCompute产品使用的合集,涵盖了其核心功能、应用场景、操作流程以及最佳实践等内容。
|
6月前
|
分布式计算 Hadoop Java
优化大数据处理:Java与Hadoop生态系统集成
优化大数据处理:Java与Hadoop生态系统集成