我的机器上有2个GPU。
通常,其中一个用于生产环境(即使用已训练的模型进行预测),而另一个用于训练和实验新模型。
当我使用Theano时,通过指定一个标志,我可以轻松地让我的脚本仅在一个GPU上运行,如下所示
THEANO_FLAGS="device=cuda0" training_script.py
THEANO_FLAGS="device=cuda1" prediction_script.py
在使用Keras和TensorFlow后端时,有没有一种简单的方法可以做到同样的事情?默认行为似乎会为一个会话映射所有GPU的所有内存
(请注意,我并不在意每个脚本是否单独映射整个GPU,即使它们可以使用更少的内存)
回答:
你可以轻松选择一个GPU。只需在CUDA_VISIBLE_DEVICES
中填写0或1
import osos.environ["CUDA_VISIBLE_DEVICES"]="1"
此外,如果你想为上述选择的GPU指定一部分GPU内存,请添加以下代码:
from keras import backend as Kimport tensorflow as tfconfig = tf.ConfigProto()config.gpu_options.per_process_gpu_memory_fraction = 0.4 #使用GPU的比例session = tf.Session(config=config)K.set_session(session)