开发者社区 > ModelScope模型即服务 > 自然语言处理 > 正文

modelscope-funasr哪个模型可以识别成这样的呢?

modelscope-funasr哪个模型可以识别成这样的呢?ad04bc328bb8d43e7c44f0b9519de6cd.png

展开
收起
三分钟热度的鱼 2024-03-27 17:13:24 72 0
1 条回答
写回答
取消 提交回答
  • MFCCA模型能够识别会议场景下的多说话人语音。

    ModelScope-FunASR中的MFCCA模型是专门为解决会议场景下多说话人语音识别问题而设计的。这个模型基于ICASSP2022 M2MeT竞赛中使用的真实会议场景语料库AliMeeting进行训练,并且在该数据集上实现了最新的SOTA(State of the Art,顶尖水平)性能。具体来说,以下是关于MFCCA模型的一些详细信息:

    • 训练数据:MFCCA模型的训练数据包括AliMeeting、AISHELL-4和约700小时模拟的说话人重叠音频,合计约917小时的数据。这些数据涵盖了多种会议场景,使得模型能够更好地适应复杂的多说话人环境。
    • 技术背景:多说话人语音识别(Multi-talker ASR)的目标是在存在多个说话人且可能发生说话人重叠的情况下,准确地识别出语音内容。随着深度学习技术的发展,多种端到端的多说话人ASR方法被提出,并在如LibriCSS这样的多说话人模拟数据集上取得了显著成效。
    • 应用前景:开发者可以利用ModelScope提供的微调和推理功能,或者使用FunASR的Github代码仓库来进行模型的领域定制化,以适应特定的应用场景或提高模型的性能。

    综上所述,如果您需要识别包含两个或以上说话人的语音,MFCCA模型是一个值得考虑的选择。您可以利用ModelScope平台提供的资源和工具,对模型进行进一步的调整和优化,以满足您的具体需求。

    2024-03-28 22:02:34
    赞同 展开评论 打赏

包含命名实体识别、文本分类、分词、关系抽取、问答、推理、文本摘要、情感分析、机器翻译等多个领域

热门讨论

热门文章

相关电子书

更多
视觉AI能力的开放现状及ModelScope实战 立即下载
ModelScope助力语音AI模型创新与应用 立即下载
低代码开发师(初级)实战教程 立即下载