请问大佬们,对flink进行压测,每条数据大小为160B,在1728核和960G内存的资源下,最大吞吐量为1800万/S。估算数据量7000万/S,每条数据大小为300B,需要配置的并发度和内存资源,是要用什么方式估算更合理,有这方面的资料吗
对于Flink进行压测并估算所需的并发度和内存资源,可以考虑以下几个方面:
根据数据量和每条数据大小,计算所需的总内存。对于7000万/S,每条数据大小为300B,总内存大小为2.1TB。因此,需要至少配备2.1TB的内存资源。需要注意的是,这只是一个估算值,实际内存需求还要考虑Flink的运行环境、任务类型和数据处理逻辑等因素。
根据最大吞吐量和每条数据大小,计算所需的并发度。对于每条数据大小为300B的情况,可以根据最大吞吐量1800万/S,计算出每个实例(即每个Flink TaskManager)需要处理600个数据包(300B/160B*1800万/S)才能达到最大吞吐量。假设每个实例的并发度为100,则需要至少70个TaskManager实例才能满足需求。
针对实际情况进行调整。根据实际情况,需要根据任务类型、数据处理逻辑、数据源和目的地等因素进行调整。例如,如果数据源和目的地是分布式存储系统,需要考虑网络带宽和I/O等因素;如果数据处理逻辑较为复杂,需要增加内存资源和并发度等。
需要注意的是,以上计算只是一个初步估算,实际情况可能会有所不同。建议在实际使用过程中,根据具体情况进行调整和优化。同时,Flink官方也提供了一些性能调优和优化的建议和方法,可以参考相关资料。
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。
实时计算Flink版是阿里云提供的全托管Serverless Flink云服务,基于 Apache Flink 构建的企业级、高性能实时大数据处理系统。提供全托管版 Flink 集群和引擎,提高作业开发运维效率。