我们在实验室有一台DGX-1。
我看到许多任务在不同的GPU上运行。
对于MLperf Docker应用,我可以使用NV_GPU=x来指定使用哪个GPU。
然而,我有一个Python的Keras/TensorFlow代码,我使用了相同的方法,但加载并没有进入指定的GPU。
回答:
您可以使用CUDA_VISIBLE_DEVICES
来指定模型使用的GPU:
import os
os.environ["CUDA_VISIBLE_DEVICES"] = "0,1" # 将GPU 0和1分配给模型