开发者社区 > ModelScope模型即服务 > 自然语言处理 > 正文

如何多卡 Finetuning PALM 2.0预训练生成模型?

使用 https://modelscope.cn/models/damo/nlp_palm2.0_pretrained_chinese-base/comment zhon中提供的finetune 代码,多卡训练时 torchrun --nproc_per_nodes=2 ... 其他卡GPU使用率为 0%

trainer 中添加 launcher='pytorch',无法进行 evaluation,报错:AssertionError: intra_layer_model parallel group is not initialized

展开
收起
whishtlf 2023-03-10 15:27:59 595 0
1 条回答
写回答
取消 提交回答
  • 您好,这个是一个未知的bug,我们正在尝试复现和修复,很抱歉很您带来不便,修复完成后我们会第一时间通知您

    2023-03-23 14:44:33
    赞同 展开评论 打赏

包含命名实体识别、文本分类、分词、关系抽取、问答、推理、文本摘要、情感分析、机器翻译等多个领域

热门讨论

热门文章

相关电子书

更多
低代码开发师(初级)实战教程 立即下载
冬季实战营第三期:MySQL数据库进阶实战 立即下载
阿里巴巴DevOps 最佳实践手册 立即下载