开发者社区 > 大数据与机器学习 > 正文

Flink CDC中oracle 19c不知道支持怎么样,但如果log日志过大的话会出现任务失败的?

问题1:Flink CDC中oracle 19c不知道支持怎么样,但如果log日志过大的话会出现任务失败的情况,我们产品是对cdc做了封装的哈是遇到了oracle cdc 同步任务失败的情况,可以仅供参考下 ? 问题2:这样啊,必须改源码吗,有没有什么参数可以控制它内存的呀

展开
收起
真的很搞笑 2023-05-29 14:22:36 73 0
1 条回答
写回答
取消 提交回答
  • 回答1:同步oracle11的数据,它晚上会跑大量事务产生大量数据更新,有些事务会很大,用flinkcdc可以吗,有没bug啊,需要自己修改源码处理,不然可能内存溢出,事务提交前的数据全部缓存在内存里。 回答2:没有,可能设计时候就没考虑这种场景。要么改源码要么使用其他方式处理。,此回答整理自钉群“Flink CDC 社区”

    2023-05-29 14:28:08
    赞同 展开评论 打赏

大数据领域前沿技术分享与交流,这里不止有技术干货、学习心得、企业实践、社区活动,还有未来。

相关产品

  • 实时计算 Flink版
  • 日志服务
  • 相关电子书

    更多
    PostgresChina2018_赖思超_PostgreSQL10_hash索引的WAL日志修改版final 立即下载
    Kubernetes下日志实时采集、存储与计算实践 立即下载
    日志数据采集与分析对接 立即下载

    相关镜像