开发者社区 > 大数据与机器学习 > 实时计算 Flink > 正文

flink sql 写hive ,很多小文件,有啥解决方法吗?

flink sql 写hive ,很多小文件,有啥解决方法吗? 图片.png

展开
收起
wenti 2023-03-13 12:56:35 338 0
1 条回答
写回答
取消 提交回答
  • 调整一下这个参数sink.partition-commit.delay,表示的是提交作业时间,默认是0ms,或者你就调整代码为批处理,稍微聚合一下写入到hive

    2023-03-13 13:12:43
    赞同 展开评论 打赏

实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。

相关产品

  • 实时计算 Flink版
  • 相关电子书

    更多
    SQL Server 2017 立即下载
    GeoMesa on Spark SQL 立即下载
    原生SQL on Hadoop引擎- Apache HAWQ 2.x最新技术解密malili 立即下载