开发者社区 > 大数据与机器学习 > 实时计算 Flink > 正文

通过FlinkCDC同步MySQL数据到Hudi中间出现这个问题什么原因?

通过FlinkCDC同步MySQL数据到Hudi,中间通过UDF将latin1编码的varchar类型数据转换成utf8编码,发现在SinkMaterializer[3] -> row_data_to_hoodie_record这一步的full checkpoint data size越来越大可能是什么原因导致的呢?
c7c709feb5f4808c793822f4d448e082.png

展开
收起
小易01 2023-08-16 01:10:18 109 0
1 条回答
写回答
取消 提交回答
  • 意中人就是我呀!

    结果表的pk和 query 推导出来的pk不一致,可以用explain plan_advice检查下。此答案整理至钉群“Flink CDC 社区“。

    2023-08-16 08:58:41
    赞同 展开评论 打赏

实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。

相关电子书

更多
One Box: 解读事务与分析一体化数据库 HybridDB for MySQL 立即下载
One Box:解读事务与分析一体化数据库HybridDB for MySQL 立即下载
如何支撑HTAP场景-HybridDB for MySQL系统架构和技术演进 立即下载

相关镜像