开发者社区 > ModelScope模型即服务 > 语音 > 正文

请问问这是我配置问题,还是推理本来就耗时久?

已解决

您好,我使用了此模型的CPU推理pipeline 但是 推理耗时有点久,四五秒的音频耗时大概三十秒,但是官网给出的试用,几乎一秒左右就可以,请问问这是我配置太低还是,推理本来就耗时久?我是在windows上docker 上运行的。

展开
收起
大口吃饭饭啊 2023-02-24 10:23:00 660 0
1 条回答
写回答
取消 提交回答
  • 推荐回答

    您好,FRCRN语音降噪这一版模型的运算量是比较大的,特别是在CPU上处理耗时相对比较长,建议使用GPU来提升速度,通常能够比CPU提升几倍到几十倍,不过GPU第一次使用需要初始化CUDA所以会比第二次调用耗时长一些。

    2023-02-24 10:47:19
    赞同 展开评论 打赏

包括语音识别、语音合成、语音唤醒、声学设计及信号处理、声纹识别、音频事件检测等多个领域

相关电子书

更多
低代码开发师(初级)实战教程 立即下载
冬季实战营第三期:MySQL数据库进阶实战 立即下载
阿里巴巴DevOps 最佳实践手册 立即下载