有谁能帮我解释一下Pytorch中这个常见问题的含义吗?
模型:EfficientDet-D4
GPU:RTX 2080Ti
批次大小:2
CUDA out of memory. Tried to allocate 14.00 MiB (GPU 0; 11.00 GiB total capacity; 8.32 GiB already allocated; 2.59 MiB free; 8.37 GiB reserved in total by PyTorch)
无论如何,我认为这里模型和GPU并不重要,我知道解决方案应该是减小批次大小,尝试在验证时关闭梯度等。但我只想知道为什么我有11 GiB
的内存,但已经分配了8.32 GiB
,却无法再分配14.00 MiB
?
补充:我在批次大小为1的情况下训练时,使用nvidia-smi
监控,发现GPU占用了9.5 GiB
。
回答:
我在Pytorch社区得到了@ptrblck的回答。在那里,我比这个问题描述得更详细。
请查看这里的回答。