开发者社区 > ModelScope模型即服务 > 计算机视觉 > 正文

ModelScope中测试了 网上的safetensors, 不行。还有什么办法么?

ModelScope中,codefuse for tensorrt-llm测试了 网上的safetensors, 不行。官方能不能支持一下,转格式不行https://zhuanlan.zhihu.com/p/663029110gptq int4 tensorrt-llm buildmodelsope里有autogptq的int4 但是无法build

展开
收起
多麻辣哦 2023-11-22 20:39:28 200 0
2 条回答
写回答
取消 提交回答
  • 对于TensorRT-LLM模型,我们需要先将其转换为TensorFlow SavedModel格式,然后再使用ModelScope进行部署。目前,ModelScope还不支持直接导入TensorRT模型。

    关于你提到的"codefuse for tensorrt-llm",我理解你可能在使用TensorFlow的Codefuse工具来转换TensorRT模型。然而,Codefuse目前只支持部分TensorFlow模型,对于TensorRT-LLM模型可能并不适用。

    对于GPT-Q INT4模型,我们可以使用TensorFlow的SavedModel工具来将其转换为SavedModel格式。然后,你可以将这个SavedModel文件上传到ModelScope,并使用我们的自动部署工具进行部署。

    2023-11-29 10:57:59
    赞同 展开评论 打赏
  • codefuse是我们的一款代码大模型产品,一些功能的推理用的是trtllm int4,如果您要测试trtllm int4的性能,可以去调用的,这个是主页地址:
    https://codefuse.alipay.com
    ——此回答整理自钉群:魔搭ModelScope开发者联盟群 ①

    2023-11-22 21:33:05
    赞同 展开评论 打赏

包含图像分类、图像生成、人体人脸识别、动作识别、目标分割、视频生成、卡通画、视觉评价、三维视觉等多个领域

热门讨论

热门文章

相关电子书

更多
用AI 高效测试移动应用 立即下载
移动互联网测试到质量的转变 立即下载
给ITer的技术实战进阶课-阿里CIO学院独家教材(四) 立即下载