我在写clickhouse的时候,全量同步每次写到1亿多数据的时候,clickhouse就会报错,我是按照月分区的,分区不多,但是但是我source三张表,读取的时间是乱序的,clickhouse后台一直再合并分区,默认是1万,设置成100万也会报错,请问有什么办法能解决?
一批次写入分区数太多,检查你配置的max_parts_in_total设置的多少? 一批次只写一个分区的数据,一批次一个分区,一批次数据量可以大一些,10-100w,如果用cdc不好改,那你把每批次的数据量改大一些试试, 根本问题是全量读取的source是乱序的,不是按时间,clickhouse后台一直再合并分区,我看clickhouse的分区分布,是乱序的,一会几个月前的数据,一会又是现在的数据。此回答整理自钉群“Flink CDC 社区”
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。
实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。