开发者社区> 问答> 正文

业务系统的增删改的数据记录实时发送到了kafka,flinksql 关联了3张表的日志记#Flink

业务系统的增删改的数据记录实时发送到了kafka,flinksql 关联了3张表的日志记录数据,再根据产品的粒度对A、B、C字段的求和,求最大值、平均值等算子的计算, 再把计算好的数据upsert到Oracle了,目前是当有表的记录数据删除数据后,这场景该怎么处理,或者更新A字段后,该怎么处理。大家针对这2个场景怎么设计的,请教下。#Flink

展开
收起
黄一刀 2020-06-10 23:26:59 1377 0
1 条回答
写回答
取消 提交回答
  • 你同步到 kafka 用的什么工具,什么格式? canal 么? 1.11 flink sql 能比较原生地支持这个场景。

    2020-06-10 23:27:27
    赞同 展开评论 打赏
问答排行榜
最热
最新

相关电子书

更多
Flink CDC Meetup PPT - 龚中强 立即下载
Flink CDC Meetup PPT - 王赫 立即下载
Flink CDC Meetup PPT - 覃立辉 立即下载