开发者社区 > 大数据与机器学习 > 实时计算 Flink > 正文

Flink cdc3.0.1,oracle11,在源库首次插入数据的时候报错怎么办?

Flink cdc3.0.1,oracle11,在源库首次插入数据的时候,目标库正常插入了数据,但第二条源库数据插入的时候,就报这个Caused by: com.ververica.cdc.connectors.shaded.org.apache.kafka.connect.errors.DataException: file is not a valid field name,目标库没相应字段了,有朋友遇到过类似问题么?50c496c03870d5982199c50e746a0511.png只同步一张表,用来测试增删改查的同步,是不是增删改查的时候有没有什么操作限制?

展开
收起
小小鹿鹿鹿 2024-04-02 21:14:44 53 0
1 条回答
写回答
取消 提交回答
  • debug看源码,改源码编译最好。此回答来自钉群Flink CDC 社区 。

    2024-04-03 11:54:42
    赞同 展开评论 打赏

实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。

相关产品

  • 实时计算 Flink版
  • 相关电子书

    更多
    Flink CDC Meetup PPT - 龚中强 立即下载
    Flink CDC Meetup PPT - 王赫 立即下载
    Flink CDC Meetup PPT - 覃立辉 立即下载