开发者社区 > 云原生 > Serverless > 正文

函数计算FC这个问题怎么解决?

函数计算FC这个问题怎么解决?函数配置里GPU 卡型是Tesla 系列 T4 卡型, 规格方案 GPU 16 GB , 新运行函数后,阿里控制台的“监控指标”的“GPU显存使用情况(MB)”显存限额只有4096MB, 代码出错CUDA的OOM如下:RuntimeError: CUDA out of memory. Tried to allocate 7.50 GiB (GPU 0; 3.75 GiB total capacity; 7.50 GiB already allocated; 3.75 GiB free; 7.52 GiB reserved in total by PyTorch)

里面查询显卡信息也只有4G显存
Sat Mar 23 17:57:31 2024
+---------------------------------------------------------------------------------------+
| NVIDIA-SMI 535.129.03 Driver Version: 535.129.03 CUDA Version: 12.3 |
|-----------------------------------------+----------------------+----------------------+
| GPU Name Persistence-M | Bus-Id Disp.A | Volatile Uncorr. ECC |
| Fan Temp Perf Pwr:Usage/Cap | Memory-Usage | GPU-Util Compute M. |
| | | MIG M. |
|=========================================+======================+======================|
| 0 Tesla T4 On | 00000000:00:07.0 Off | 0 |
| N/A 33C P8 12W / 70W | 0MiB / 3840MiB | 0% Default |
| | | N/A |
+-----------------------------------------+----------------------+----------------------+

+---------------------------------------------------------------------------------------+
| Processes: |
| GPU GI CI PID Type Process name GPU Memory |
| ID ID Usage |
|=======================================================================================|
| No running processes found |
+---------------------------------------------------------------------------------------+

展开
收起
三分钟热度的鱼 2024-03-27 15:46:46 28 0
0 条回答
写回答
取消 提交回答

快速交付实现商业价值。

热门讨论

热门文章

相关电子书

更多
低代码开发师(初级)实战教程 立即下载
冬季实战营第三期:MySQL数据库进阶实战 立即下载
阿里巴巴DevOps 最佳实践手册 立即下载