本文适合多GPU的机器,并且每个用户需要单独使用GPU训练。
虽然pytorch提供了指定gpu的几种方式,但是使用不当的话会遇到out of memory的问题,主要是因为pytorch会在第0块gpu上初始化,并且会占用一定空间的显存。这种情况下,经常会出现指定的gpu明明是空闲的,但是因为第0块gpu被占满而无法运行,一直报out of memory错误。
解决方案如下:
指定环境变量,屏蔽第0块gpu
CUDA_VISIBLE_DEVICES = 1 main.py |
import os #多块使用逗号隔开 os.environ['CUDA_VISIBLE_DEVICES'] = '1' |
使用torch.cuda.device with torch.cuda.device(1): ... |