想问下ModelScope训练的话 这个报错要怎么设置参数呢? 在PAI平台

GPT3Trainer: GPT3ForTextGeneration: CUDA out of memory. Tried to allocate 100.00 MiB (GPU 0; 22.20 GiB total capacity; 5.90 GiB already allocated; 70.12 MiB free; 5.90 GiB reserved in total by PyTorch) If reserved memory is >> allocated memory try setting max_split_size_mb to avoid fragmentation. See documentation for Memory Management and PYTORCH_CUDA_ALLOC_CONF 想问下ModelScope训练的话 这个报错要怎么设置参数呢? 在PAI平台的JupyterLab 上面运行的

展开
收起
真的很搞笑 2023-04-03 13:01:34 368 分享 版权
1 条回答
写回答
取消 提交回答
  • 尝试一下cfg.train.dataloader.batch_size_per_gpu数值调小,或者用多卡进行训练,此回答整理自钉群“魔搭ModelScope开发者联盟群 ①”

    2023-04-03 18:30:43
    赞同 展开评论

包含图像分类、图像生成、人体人脸识别、动作识别、目标分割、视频生成、卡通画、视觉评价、三维视觉等多个领域

收录在圈子:
+ 订阅

热门讨论

热门文章

还有其他疑问?
咨询AI助理