开发者社区> 问答> 正文

flink 如何读取持续更新的hdfs文件, 比如原来有个文件我已经读了,但后来这个文件#Flink

flink 如何读取持续更新的hdfs文件, 比如原来有个文件我已经读了,但后来这个文件有了更新我就需要重新读,hdfs上的文件每隔一段时间会被重新覆写 #Flink

展开
收起
黄一刀 2020-05-29 18:04:36 1915 0
1 条回答
写回答
取消 提交回答
  • 2个方案 : 1. 定时任务 去track hdfs 文件的索引 然后用flume读文件 2. 对文件进行新增 然后用flume读取 ,因为flume 不会对文件中新增的数据进行读取 它只会根据索引进行判断文件是否已读 ,flume 读到kafka 然后用flink读取kafka

    2020-05-29 18:07:17
    赞同 展开评论 打赏
问答排行榜
最热
最新

相关电子书

更多
Flink CDC Meetup PPT - 龚中强 立即下载
Flink CDC Meetup PPT - 王赫 立即下载
海量数据分布式存储——Apache HDFS之最新进展 立即下载