开发者社区> 问答> 正文

ModelScope中有没有办法在一个docker是让多个模型在多张显卡上做推理呢?

ModelScope中有没有办法在一个docker是让多个模型在多张显卡上做推理呢?同一进程能做到吗?

展开
收起
fuxixi 2022-09-26 17:08:15 772 0
1 条回答
写回答
取消 提交回答
  • 能想到的办法启动多个推理命令,NVIDIA_VISIBLE_DEVICES=0;python inference.py NVIDIA_VISIBLE_DEVICES=1;python inference.py 代码里推理应该可以传递参数device pipeline参数: device设置'gpu:0'

    2022-09-26 17:34:52
    赞同 展开评论 打赏
来源圈子
更多
收录在圈子:
+ 订阅
技术图谱:由专家组参与技术图谱的绘制与编写,知识与实践的结合让开发者们掌握学习路线与逻辑,快速提升技能 电子书:电子书由阿里内外专家打造,供开发者们下载学习,更与课程相结合,使用户更易理解掌握课程内容 训练营:学习训练营 深入浅出,专家授课,带领开发者们快速上云 精品课程:汇集知识碎片,解决技术难题,体系化学习场景,深入浅出,易于理解 技能自测:提供免费测试,摸底自查 体验实验室:学完即练,云资源免费使用
问答排行榜
最热
最新

相关电子书

更多
像搭积木一样玩转Docker的持续交付 立即下载
微博Docker Cloud Platform(DCP) 实现分钟级服务成倍扩容 立即下载
应用 Docker 进行持续交付:用技术改变交付路程 立即下载