ModelScope Qwen-7B-Chat如何微调,16G显存跑不动?
16G可能不太够用。https://github.com/modelscope/swift/blob/main/examples/pytorch/llm/scripts/qwen_7b_chat/lora/sft.sh 微调文档:https://github.com/modelscope/swift/blob/main/docs/source/LLM/LLM%E5%BE%AE%E8%B0%83%E6%96%87%E6%A1%A3.md 另外qwen可以用vllm 此回答整理自钉群“魔搭ModelScope开发者联盟群 ①”
ModelScope中7B-chat的用法可以通过以下步骤进行指定调用某张显卡:
首先,确保已经安装了ModelScope库。可以使用以下命令进行安装:
pip install modelscope
然后,在代码中导入所需的库和模块:
from modelscope.pipelines import pipeline
from modelscope.utils.constant import Tasks
第二步:创建一个7B-chat的管道实例,并指定使用的显卡编号。例如,如果要使用第0号显卡,可以这样创建管道实例:
第三步:创建一个7B-chat的管道实例,指定使用第0号显卡
chat_pipeline = pipeline(Tasks.text_generation, model='7B-chat', device_id=0)
其中,device_id参数用于指定要使用的显卡编号。请注意,显卡编号从0开始计数。
最后,使用管道实例进行文本生成任务。例如,可以这样生成一段对话:
生成一段对话
input_text = "你好"
output_text = chat_pipeline(input_text)
print(output_text)
这样,就可以通过指定显卡编号来使用7B-chat模型进行文本生成任务了。