问题一:flink1.17.1 cdc 2.4.2也有这个问题呢?
flink1.17.1 cdc 2.4.2也有这个问题呢?cdc拿到数据后,时间少了两个00
参考答案:
你可以自定义下debezium的Converter.
关于本问题的更多回答可点击进行查看:
https://developer.aliyun.com/ask/587184
问题二:flinkcdc目前用的是 flinkcdc 2.2.1 , 在哪个版本有修复个问题呢?
今天发现个问题,1 在数据库里的update_time='2024-01-04 11:00:12.200' flinkcdc拿到数据发给kafka的是 2024-01-04 11:00:12.2 它把最后两个00去掉了,目前用的是 flinkcdc 2.2.1 , 在哪个版本有修复个问题呢?
参考答案:
现在已经到3.0 了 可以去官网看看升级点 介绍
关于本问题的更多回答可点击进行查看:
https://developer.aliyun.com/ask/587181
问题三:Flink CDC2.4用online模式增量抓取oracle数据有数据丢失,有了解这个情况的吗?
Flink CDC2.4用online模式增量抓取oracle数据有数据丢失,跟踪采集过程,发现如果是在archive_log切换的时候。有了解这个情况的吗?
参考答案:
Flink CDC 2.4在online模式下增量抓取Oracle数据时,如果在archive_log切换的时候可能会出现数据丢失的情况。这可能是因为Flink CDC无法正确处理归档日志的切换导致的。
要解决这个问题,你可以尝试以下方法:
- 确保你的Flink CDC作业配置正确,包括数据库连接信息、日志读取位置等。
- 检查Oracle数据库的归档日志设置,确保归档日志的切换不会中断数据的连续性。你可以调整归档日志的切换策略或增加归档日志保留时间来减少切换的频率。
- 如果可能的话,尝试使用Flink CDC的其他模式,如
incremental
模式或complete
模式,以获取更稳定的数据抓取结果。 - 如果问题仍然存在,建议向Flink社区或相关技术支持渠道寻求帮助,提供详细的错误日志和配置信息,以便他们能够更好地帮助你解决问题。
关于本问题的更多回答可点击进行查看:
https://developer.aliyun.com/ask/587179
问题四:Flink CDC 3.0支持mysql到es或者doris到es吗?
Flink CDC 3.0支持mysql到es或者doris到es吗?
参考答案:
还没支持,现在只有这俩
关于本问题的更多回答可点击进行查看:
https://developer.aliyun.com/ask/587178
问题五:我的Flink CDC的jobmanager内存总是持续升高直到宕机,这个是什么原因呀?
我的Flink CDC的jobmanager内存总是持续升高直到宕机,这个是什么原因呀,有解决思路么?
参考答案:
Flink CDC的jobmanager内存持续升高直到宕机可能是由于以下原因之一:
- 数据量过大:如果处理的数据量非常大,可能会导致jobmanager内存不足。可以尝试增加jobmanager的内存大小或者优化数据处理逻辑以减少内存占用。
- 反压机制问题:当处理速度跟不上数据产生速度时,可能会出现反压机制导致内存持续升高。可以检查反压机制的配置是否正确,并尝试调整相关参数以解决该问题。
- 资源竞争:如果有其他任务或应用程序与Flink CDC jobmanager竞争内存资源,也可能导致内存持续升高。可以尝试减少其他任务的资源占用或者增加jobmanager的内存分配。
- 内存泄漏:可能存在内存泄漏的情况,导致内存无法释放。可以使用内存分析工具来定位和修复内存泄漏问题。
综上所述,需要进一步分析和调试才能确定具体的原因,并采取相应的措施来解决该问题。
关于本问题的更多回答可点击进行查看: