开发者社区 > ModelScope模型即服务 > 自然语言处理 > 正文

modelscope-funasr这个问题怎么解决?

modelscope-funasr这个问题怎么解决?998b30e28e2099de19c7404cb234fa68.png
fb624ff9108684e57362acda25bbdc08.png
22376e0eb79bf5787ee407e9103b2b2a.png
9d394a4d4b4ef27082b3bbd05541539f.png

展开
收起
三分钟热度的鱼 2024-03-27 16:53:50 56 0
3 条回答
写回答
取消 提交回答
  • 要解决modelscope-funasr在缺少model.onnx和model_quant.onnx文件时开启funasr_wss_server服务端的问题,您可以尝试以下方法:

    1. 联系技术支持:如果模型文件缺失,最直接的方法是联系ModelScope的技术支持团队,询问是否有替代文件或者解决方案。
    2. 社区资源:访问ModelScope-Funasr的官方论坛或社区,查看是否有其他用户遇到类似问题,并分享了解决方法。
    3. 更新模型:检查是否有更新版本的模型可用,新版本可能会包含所需的文件或修复了旧版本的问题。
    4. 自定义模型:如果有能力,可以尝试自己构建模型并生成所需的onnx文件。这可能需要一定的机器学习知识和技术能力。
    5. 备用方案:如果上述方法都不可行,考虑使用其他语音识别服务或工具,直到找到合适的解决方案。

    综上所述,在处理这类问题时,保持耐心并积极寻找解决方案是关键。希望这些建议能帮助您解决问题。

    2024-03-31 23:16:40
    赞同 展开评论 打赏
  • 要解决ModelScope-Funasr中没有model.onnxmodel_quant.onnx文件的问题,您可以尝试以下方法:

    1. 检查模型导出:确保您已经按照正确的流程导出了模型。如果您有PyTorch格式的模型文件,可以使用PyTorch提供的torch.onnx.export()函数来导出ONNX格式的模型。在导出时,需要设置模型为评估模式,并定义好输入输出的尺寸。
    2. 量化模型:如果原始模型没有经过量化,您可以自行进行量化操作。量化可以减小模型大小并提高推理效率,但可能会对模型性能造成一定影响。您可以查找相关的量化工具或脚本来处理模型。
    3. 查阅官方文档:建议详细阅读ModelScope-Funasr的官方文档或GitHub仓库,以获取关于如何生成和使用ONNX模型的最新信息和指导。
    4. 社区支持:如果官方文档中没有提供足够的信息,您可以尝试在ModelScope-Funasr的社区论坛或GitHub仓库中寻求帮助,其他用户可能遇到过类似的问题并找到了解决方案。
    5. 联系技术支持:如果上述方法都无法解决问题,您可以考虑联系ModelScope-Funasr的技术支持团队,他们可能会提供更专业的指导和支持。

    总的来说,通过上述方法,您应该能够找到合适的解决方案来处理没有model.onnxmodel_quant.onnx文件的问题,并成功在Funasr服务端调用模型。

    2024-03-31 09:37:27
    赞同 展开评论 打赏
  • e3f1f41a5be96ac642f312316030c84d.png
    你直接把模型名字换成本地路径就可以了
    此回答整理自钉群“modelscope-funasr社区交流”

    2024-03-27 17:23:04
    赞同 展开评论 打赏

包含命名实体识别、文本分类、分词、关系抽取、问答、推理、文本摘要、情感分析、机器翻译等多个领域

热门讨论

热门文章

相关电子书

更多
低代码开发师(初级)实战教程 立即下载
冬季实战营第三期:MySQL数据库进阶实战 立即下载
阿里巴巴DevOps 最佳实践手册 立即下载