请问下当flink集群重启之后 kafka消息还是重复 有什么办法解决吗 kafka sink 已设置 'sink.semantic' = 'exactly-once',
offset提交策略修改一下就可以了,单独设置 'sink.semantic' = 'exactly-once'应该不够的。
楼主你好,根据你的问题描述,你可以重启任务,然后追踪一下重新开启之后是否正常,然后再排除一下提交策略。
任务重启重复消费一段Kafka消息是正常的,只有这样才能保证Exactly Once语义。Flink会将Kafka位点与状态对应起来,因此即使重复消费,也会保证落库数据的准确性
可以尝试设置Kafka的offset提交策略,比如设置为“每次提交”,这样每次消费完消息之后就会提交offset,重启之后就不会重复消费消息了。
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。
实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。