hashmap+hdfs的checkpoint, 是每个operator-chain产生一个hdfs文件,还是整个tm产生一个hdfs文件呢?
在 Flink 中,每个 Operator Chain 是独立处理的,因此每个 Operator Chain 会生成一个 HDFS 文件。整个 TM(Task Manager)会有多个 Operator Chain,即会生成多个 HDFS 文件。
具体来说,在 Flink 中,每个算子(Operator)都会有自己的任务(Task),该任务只和它的前一个和后一个任务交流,这些任务被链接成一个或多个 Operator Chain。每个 Operator Chain 都有一个独立的数据流传递,每个任务都是按独立的数据包流转的。因此,每个 Operator Chain 的输出都会被写入一个单独的 HDFS 文件。如果在 Flink 作业中有多个 Operator Chain,则会生成多个 HDFS 文件,每个文件都是独立的,不会相互影响。
需要注意的是,对于多个算子被隐式地链接在一起的情况(如使用算子链(Chaining)技术),这些算子共用一个任务,因此可能会生成一个 HDFS 文件。但是,这取决于它们是否是同一 Operator Chain 的一部分。
总之,在 Flink 中,每个 Operator Chain 都有一个独立的输出流,因此每个 Operator Chain 会生成一个 HDFS 文件。
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。
实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。