codefuse 适用modelscope 本地加载模型时报错, 官方codefuse-ai/CodeFuse-CodeLlama-34B-4bits 中并没有pytorch_model-00001-of-00007.bin 文件
from modelscope.models import Model
# 加载模型和预处理器
# 传入模型ID 或 模型目录
model = Model.from_pretrained(model_name_or_path='codefuse-ai/CodeFuse-CodeLlama-34B-4bits', device='cuda:0')
从你提供的错误信息来看,你可能没有找到正确的模型文件。在官方的codefuse-ai/CodeFuse-CodeLlama-34B-4bits模型中,确实没有名为pytorch_model-00001-of-00007.bin
的文件。这可能是因为这个模型是使用TensorFlow而不是PyTorch构建的,因此没有对应的PyTorch版本。
如果你需要使用PyTorch版本的模型,你可能需要寻找其他模型,或者在官方模型的基础上进行转换。另外,你也可以尝试使用其他的模型加载库,比如Hugging Face的Transformers库,它支持多种模型格式,包括TensorFlow和PyTorch。
modelscope无法在本地找到该模型。根据您提供的代码片段,您尝试从codefuse-ai/CodeFuse-Codellama-34B-4bits目录加载模型,但是该目录中并没有pytorch model-00001-of-00007.bin文件。
要解决这个问题,您需要确保您要加载的模型文件存在于指定的目录中。如果您是从GitHub或其他远程仓库克隆的模型,请确保已经下载了所有的模型文件。此外,请检查模型文件的名称是否与您尝试加载的文件名匹配。