在跑Flink任务时,遇到了operator反压问题,任务执行图如下,source(读Kafka), KeyBy(抽取数据字段供keyBy操作使用),Parser(业务处理逻辑),Sink(写Kafka),除了KeyBy->Parser使用hash(KeyBy操作)链接,其他都使用RESCALE链接。(并发度仅供参考,这个是解决问题后的并发度,最初的并发度为 500->1000->3000->500) [image: image.png] 相关metric [image: image.png] [image: image.png] 为了解决反压问题做的处理: 1. 增大Parse并发,KeyByOpe.buffers.outPoolUsage 上升速率有减缓,多次加并发依然没有解决 2. 优化Parse逻辑,减少CPU使用,效果不明显 3. 将Parse里的一些数据过滤逻辑移到KeyBy operator里面,效果不明显 最后猜测可能是KeyBy operator并发大和Parse链接hash操作占用NetWork资源过多导致反压,于是减少KeBy operator的并发度,发现解决问题。但是想请教一下这个操作解决这个问题的具体原因。
谢谢!*来自志愿者整理的FLINK邮件归档
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。