问题一:Flink CDC里推荐一个支持3.0的 clickhouse connector呢?
Flink CDC里推荐一个支持3.0的 clickhouse connector呢?
参考答案:
那你参考下,使用ververica- connector-clickhosue,不过这个只支持flink 1.15版本目前。我搜到一个仓库,你可以参考下,
https://github.com/itinycheng/flink-connector-clickhouse
关于本问题的更多回答可点击进行查看:
https://developer.aliyun.com/ask/597888?spm=a2c6h.12873639.article-detail.92.50e24378TRW91E
问题二:Flink CDC里现在支持整个库的同步吗?
Flink CDC里现在支持整个库的同步吗?
参考答案:
在 Flink CDC 3.0 的配置文件中指定 DataSource 同步任务捕获上游多表或整库变更,结合 Schema Evolution 的设计,SchemaRegistry 会在读取到新表的数据后,自动在目标端外部系统建表,实现自动化的数据整库同步。
——参考链接。
关于本问题的更多回答可点击进行查看:
https://developer.aliyun.com/ask/597884?spm=a2c6h.12873639.article-detail.93.50e24378TRW91E
问题三:Flink CDC里这个错误有影响吗?我看报错后还在继续消费,cdc读取pgsql的任务。
Flink CDC里这个错误有影响吗?我看报错后还在继续消费,cdc读取pgsql的任务。
参考答案:
如果报错后还可以正常运行,代表是可容错的,可以继续。
关于本问题的更多回答可点击进行查看:
https://developer.aliyun.com/ask/597883?spm=a2c6h.12873639.article-detail.94.50e24378TRW91E
问题四:在Flink CDC中,遇到这种错误怎么解决?
在Flink CDC中,使用flink-connector-jdbc-1.15.2.jar与flink1.16配合,在sql-client中创建表并引用MySQL数据库中的表进行查询时,遇到了"java.lang.ClassNotFoundException: org.apache.kafka.connect.data.Schema"的错误。请问是什么问题?
参考答案:
不支持或者cast失败。而且你的jdbc版本使用的也不对哦,需要配套flink 1.16的版本。你这个是sql语法错误了。
关于本问题的更多回答可点击进行查看:
https://developer.aliyun.com/ask/597880?spm=a2c6h.12873639.article-detail.95.50e24378TRW91E
问题五:Flink CDC里这个项目有完整的文档吗 包括cli方式 sql方式 datastream方式吗?
Flink CDC里这个项目有完整的文档吗 包括cli方式 sql方式 datastream方式吗?
参考答案:
参考这个:
https://ververica.github.io/flink-cdc-connectors/
关于本问题的更多回答可点击进行查看:
https://developer.aliyun.com/ask/597878?spm=a2c6h.12873639.article-detail.96.50e24378TRW91E