为什么flinkcdc中sql确实执行成功了,但是job执行未成功,kibana里面也没有找到数据?用的是官方快速上手教程的mysql\pg例子,docker启动的mysql和pgsql。
在 Flink CDC 中,如果您的 SQL 执行成功但作业未成功,并且在您预期的目标系统中没有看到数据,可能是以下一些原因:
SQL 执行成功但未提交
如果您的 SQL 在 Flink CDC 中执行成功但未提交,可能是因为您的 SQL 在事务中执行,并且事务尚未提交。在这种情况下,Flink CDC 不会将未提交的更改写入目标系统中。您可以检查您的 SQL 是否在事务中执行,并确保在执行 SQL 之后提交事务。
CDC 任务未正确配置
如果您的 CDC 任务未正确配置,可能无法正确读取和写入数据。例如,您可能未正确配置 CDC 数据源或未正确设置目标系统连接。您可以检查您的 CDC 任务配置是否正确,并确保 CDC 任务能够正确地读取数据并将其写入目标系统。
目标系统连接失败
如果您的 CDC 任务无法连接到目标系统,可能导致无法将数据写入目标系统。例如,如果您的目标系统是 Apache Kafka,但您的 CDC 任务无法连接到 Kafka 集群,则无法将数据写入 Kafka 主题。您可以检查您的目标系统连接是否正常,并确保 CDC 任务能够正确地将数据写入目标系统。
数据格式错误
如果您的 CDC 任务能够正确读取数据但无法将其写入目标系统,可能是因为数据格式不正确。例如,您可能未正确指定目标系统中数据的格式或未正确设置序
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。
实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。