开发者社区 > 大数据与机器学习 > 实时计算 Flink > 正文

event-time被插入目标表后,目标表不响应删除事件,有人遇到过这个问题吗?

kafka connector作为source的时候,event-time被插入目标表后,目标表不响应删除事件(即-D标识的数据在目标表不会被删除),有人遇到过这个问题吗?注:目标表是通过jdbc connector写入的Mysql数据库

展开
收起
wenti 2023-02-06 17:09:46 124 0
3 条回答
写回答
取消 提交回答
  • Kafka Connect JDBC Sink Connector在同步数据到MySQL等目标数据库时,默认情况下仅处理INSERT和UPDATE操作,而不处理DELETE事件。这意味着如果上游Kafka topic中的消息携带了代表删除事件的特殊标记(例如Debezium使用的是op字段标识事件类型,其中D代表删除),JDBC Sink Connector并不会自动将这些删除事件转换为对应的目标数据库中的删除操作。

    2024-02-27 16:38:30
    赞同 展开评论 打赏
  • 可以尝试在Kafka Connector中添加一个特殊的处理器,用于处理删除事件,以便将其转换为对MySQL数据库的删除操作。另外,可以尝试使用Debezium来实现CDC,它可以更好地处理删除事件。

    2023-02-06 22:38:26
    赞同 展开评论 打赏
  • 我好像记得jdbc sink mysql要学insert语句来着——该回答整理自钉群“Flink CDC 社区”

    2023-02-06 20:36:55
    赞同 展开评论 打赏

实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。

相关电子书

更多
低代码开发师(初级)实战教程 立即下载
冬季实战营第三期:MySQL数据库进阶实战 立即下载
阿里巴巴DevOps 最佳实践手册 立即下载