开发者社区 > ModelScope模型即服务 > 自然语言处理 > 正文

NER模型使用pipeline方式进行模型推理速度太慢

NER模型使用pipeline方式进行模型推理速度太慢1条大概3S,不太适合进行线上部署,有没有什么解决办法?

展开
收起
caicaicaij 2023-03-08 16:59:51 643 0
2 条回答
写回答
取消 提交回答
  • 我猜你用的是CPU进行推理,我最开始用的CPU也是一条差不多4~5S,后来用的3060Ti,差不多5000条,30秒

    2023-04-12 16:16:32
    赞同 展开评论 打赏
  • 有几种解决方案可以尝试一下:

    1. 使用GPU进行模型推理
    2. 多条query以batch的方式批量处理(仅GPU下有性能提升)
    3. 使用小模型,部分NER模型有LSTM版本可以使用
    4. 将模型导出为onnx格式进行推理(1.4版本后支持)
    2023-03-22 17:23:38
    赞同 1 展开评论 打赏

包含命名实体识别、文本分类、分词、关系抽取、问答、推理、文本摘要、情感分析、机器翻译等多个领域

热门讨论

热门文章

相关电子书

更多
大规模机器学习在蚂蚁+阿里的应用 立即下载
阿里巴巴机器学习平台AI 立即下载
机器学习及人机交互实战 立即下载