请问Qwen2-7B-Instruct用A10 做推理, modelscope中报显存OOM的错误,有没有参数可以调优一下? 用transformers 的 AutoModelForCausalLM, AutoTokenizer 加载的模型
infer backend选了vllm,试试torch_dtype=torch.bfloat16 参考以下链接 https://github.com/modelscope/swift/blob/main/docs/source/LLM/VLLM%E6%8E%A8%E7%90%86%E5%8A%A0%E9%80%9F%E4%B8%8E%E9%83%A8%E7%BD%B2.md 此回答整理自钉群“魔搭ModelScope开发者联盟群 ①”
ModelScope旨在打造下一代开源的模型即服务共享平台,为泛AI开发者提供灵活、易用、低成本的一站式模型服务产品,让模型应用更简单!欢迎加入技术交流群:微信公众号:魔搭ModelScope社区,钉钉群号:44837352