Flink on yarn任务在执行的时候数据量太大容易jobmanager或者taskmanager内存不足,然后容器直接被kill掉,在任务执行前我也不知道这个任务需要多少的内存,这个有什么解决方法吗?
先按集群资源算算 按cpu和内存配比给,然后报溢出了再加,从ck恢复就行,此回答整理自钉群“【③群】Apache Flink China社区”
当 Flink 在 YARN 上运行时,由于数据量大而导致 JobManager 或 TaskManager 内存不足的情况是很常见的。以下是一些解决此类问题的方法:
增加资源:
yarn.application-master.vcores
和 yarn.container-vcores
设置来调整分配给任务的 CPU 核心数。-yn
参数)。监控和调优:
优化数据处理逻辑:
预估资源需求:
动态资源调整:
使用外部持久化存储:
升级硬件:
使用高效的序列化库:
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。
实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。