开发者社区> 问答> 正文

flink消费kafka的数据写入到hdfs中,我采用了BucketingSink 这个sink将o

flink消费kafka的数据写入到hdfs中,我采用了BucketingSink 这个sink将operator出来的数据写入到hdfs文件上,并通过在hive中建外部表来查询这个。但现在有个问题,处于in-progress的文件,hive是无法识别出来该文件中的数据,可我想能在hive中实时查询进来的数据,且不想产生很多的小文件,这个该如何处理呢

展开
收起
黄一刀 2020-04-23 19:32:31 3304 0
1 条回答
写回答
取消 提交回答
  • flink可以自定义文件名字, 这样hive就能读出来了

    2020-04-23 19:32:47
    赞同 展开评论 打赏
问答排行榜
最热
最新

相关电子书

更多
Java Spring Boot开发实战系列课程【第16讲】:Spring Boot 2.0 实战Apache Kafka百万级高并发消息中间件与原理解析 立即下载
MaxCompute技术公开课第四季 之 如何将Kafka数据同步至MaxCompute 立即下载
消息队列kafka介绍 立即下载