modelscope-funasr的whisper/demo_from_openai.py要比whisper/demo.py慢5倍,是模型不同还是代码的问题?这两个都没有使用cuda吗?
关于ModelScope-FunASR与Whisper在性能上的对比,有很多种原因:
优化程度不同:模型是否进行了量化或模型压缩优化会影响其运行效率。未经优化的模型在计算资源有限的情况下可能会运行较慢。
硬件加速支持:即使在同一台设备(如4090 GPU)上,如果FunASR没有充分利用GPU进行有效加速,或者编译优化设置不恰当,也可能导致运行速度低于Whisper。
数据处理流程:除了模型本身的速度外,还包括预处理音频数据、后处理转录文本等环节的时间消耗,这些额外步骤也可能影响整体的实时性表现。
批处理大小:如果测试时采用的批次大小不同,也会对吞吐量和单个样本的处理时间产生影响。