flink-cdc写入 Upsert Kafka avro格式 可以使用 flink 的 kafka avro格式对接吗?
可以的,Flink-CDC写入Upsert Kafka Avro格式时,确实可以使用Flink的Kafka Avro格式对接。为了实现这个功能,您需要依赖flink-connector-kafka_2.12,并确保其版本为1.12.0。如果您使用SQL Client,还需要下载flink-sql-connector-kafka_2.11-1.12.0.jar并将其放置在Flink安装目录的lib文件夹下。
在实际操作中,Flink会根据主键列的值对数据进行分区,从而保证主键上的消息有序。这意味着同一主键上的更新或删除消息将落在同一分区中。
此外,关于Upsert Kafka的数据格式,它支持正常的JSON格式、debezium-json格式以及changelog-json格式。在实际应用中,您可以根据需要选择合适的数据格式。
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。
实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。