开发者社区> 问答> 正文

使用Flink1.10.0读取hive时source并行度问题怎么解决?

我使用flink1.10.0读取hive表,启动时设置了全局的并行度,但是在读取的时候,发现sink并行度是受约束的, 而source的并行度不受此约束,会根据source的大小改变,大的时候并行度大到1000,请问一下怎么处理这个并行度呢?*来自志愿者整理的flink邮件归档

展开
收起
CCCC 2021-12-02 15:09:03 1615 0
1 条回答
写回答
取消 提交回答
  • Hi,  

    1.10中,Hive source是自动推断并发的,你可以使用以下参数配置到flink-conf.yaml里面来控制并发:  - table.exec.hive.infer-source-parallelism=true (默认使用自动推断)  - table.exec.hive.infer-source-parallelism.max=1000 (自动推断的最大并发) 

    Sink的并发默认和上游的并发相同,如果有Shuffle,使用配置的统一并发。*来自志愿者整理的FLINK邮件归档

    2021-12-02 15:47:24
    赞同 展开评论 打赏
问答排行榜
最热
最新

相关电子书

更多
Hive Bucketing in Apache Spark 立即下载
spark替代HIVE实现ETL作业 立即下载
2019大数据技术公开课第五季—Hive迁移到MaxCompute最佳实践 立即下载