"def init_model():
model_type = ModelType.baichuan2_7b_chat
template_type = get_default_template_type(model_type)
print(f'template_type: {template_type}') # template_type: qwen
model_dir=""/nvme0/hub/modelscope/baichuan-inc/Baichuan2-7B-Chat""
global tokenizer
global model
global template
model,tokenizer = get_model_tokenizer(model_type,model_id_or_path=model_dir, model_kwargs={'device_map': 'auto'})
# model.to(""cuda:0"")
template = get_template(template_type, tokenizer)
seed_everything(42)
init_model() os.environ['CUDA_VISIBLE_DEVICES'] = '0' 设置都起不来 model.to(""cuda:0"") 用这个能起来,ModelScope绝大部分gpu在第一个上,怎么解决? "
ModelScope旨在打造下一代开源的模型即服务共享平台,为泛AI开发者提供灵活、易用、低成本的一站式模型服务产品,让模型应用更简单!欢迎加入技术交流群:微信公众号:魔搭ModelScope社区,钉钉群号:44837352