开发者社区 > 大数据与机器学习 > 实时计算 Flink > 正文

在Flink CDC中,导致输出到kafka的数据错误是哪里配置问题吗?

在Flink CDC中,pipeline mysql到kafkamysql类型decimal(16,2)iwEcAqNwbmcDAQTRA-oF0QO2BrAwT96teye4lQaKkkRrny0AB9IbU7IPCAAJomltCgAL0gAFFys.png_720x720q90.jpg
但flink日志里面 schema信息是decimal(19,0)iwEcAqNwbmcDAQTRB64F0QOUBrAhq8blhmg9HwaKkkRsdK0AB9IbU7IPCAAJomltCgAL0gAYDFI.png_720x720q90.jpg
导致输出到kafka的数据错误是哪里配置问题吗?

展开
收起
想去床上睡觉 2024-07-31 19:56:10 29 0
0 条回答
写回答
取消 提交回答

实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。

相关产品

  • 实时计算 Flink版
  • 相关电子书

    更多
    Java Spring Boot开发实战系列课程【第16讲】:Spring Boot 2.0 实战Apache Kafka百万级高并发消息中间件与原理解析 立即下载
    MaxCompute技术公开课第四季 之 如何将Kafka数据同步至MaxCompute 立即下载
    消息队列kafka介绍 立即下载