开发者社区 > 大数据与机器学习 > 开源大数据平台 E-MapReduce > 正文

Delta Lake 事务日志如何工作?

Delta Lake 事务日志如何工作? 求大佬解答

展开
收起
爱吃鱼的程序员 2020-12-28 11:34:00 675 0
1 条回答
写回答
取消 提交回答
  • https://developer.aliyun.com/profile/5yerqm5bn5yqg?spm=a2c6h.12873639.0.0.6eae304abcjaIB

    每当用户提交一个修改表的操作时(例如INSERT,UPDATE或DELETE),DeltaLake将该操作分解为包括如下所示的一系列离散的步骤:添加文件:添加一个数据文件。删除文件:删除一个数据文件。更新元数据:更新表的元数据(例如修改表的名称、schema或分区)。设置事务:记录Sparkstructuredstreaming任务提交的microbatch的ID。更改协议:将事务日志切换到最新软件协议以支持新的特性。提交信息:包含提交所需的信息——执行了什么操作、操作来源以及操作时间。这些操作都会被记录在事务日志中,形成一系列原子的单元,称作提交。

    2020-12-28 11:34:18
    赞同 展开评论 打赏

阿里云EMR是云原生开源大数据平台,为客户提供简单易集成的Hadoop、Hive、Spark、Flink、Presto、ClickHouse、StarRocks、Delta、Hudi等开源大数据计算和存储引擎,计算资源可以根据业务的需要调整。EMR可以部署在阿里云公有云的ECS和ACK平台。

相关电子书

更多
PostgresChina2018_赖思超_PostgreSQL10_hash索引的WAL日志修改版final 立即下载
Kubernetes下日志实时采集、存储与计算实践 立即下载
日志数据采集与分析对接 立即下载