在TensorFlow中无法使用GPU进行训练

我在开发一个卷积神经网络时注意到,训练阶段使用的是CPU,CPU使用率达到100%,而没有使用我的GTX 1660Ti显卡。

TensorFlow无法识别我的1660Ti

我尝试按照TensorFlow网站上的这个指南进行操作。

import tensorflow as tfprint("Num GPUs Available: ", len(tf.config.list_physical_devices('GPU')))

输出结果是

Num GPUs Available:  0

我还尝试读取TensorFlow识别的所有设备

tf.config.list_physical_devices()

输出结果是

[ PhysicalDevice(name='/physical_device:CPU:0', device_type='CPU') ]

我阅读到的相关信息

我在网上搜索后发现,可能需要安装NVidia CUDA工具包。我从这里进行了安装,但问题依然存在。

我发现NVidia CUDA并非在所有GPU上都启用:来源。我觉得这有点奇怪,为什么NVidia要限制部分客户使用CUDA?

附加信息

我的requirements.txt文件(如果软件版本有助于解决问题):

matplotlib==3.4.2keras==2.4.3tensorflow-gpu==2.5.0seaborn==0.11.1

我在Jupyter Notebook中运行Python代码(通过pip安装)

我的问题

有没有办法让我使用GPU进行CUDA计算(或者至少像这种情况一样使用TensorFlow)?


回答:

我最终解决了这个问题。

我从这里下载了cuDNN,并按照这个安装指南,最终使其正常工作。

import tensorflow as tfprint("Num GPUs Available: ", len(tf.config.list_physical_devices('GPU')))

现在输出结果是

Num GPUs Available:  1

以及

tf.config.list_physical_devices()

现在输出结果是

[PhysicalDevice(name='/physical_device:CPU:0', device_type='CPU'),

Related Posts

L1-L2正则化的不同系数

我想对网络的权重同时应用L1和L2正则化。然而,我找不…

使用scikit-learn的无监督方法将列表分类成不同组别,有没有办法?

我有一系列实例,每个实例都有一份列表,代表它所遵循的不…

f1_score metric in lightgbm

我想使用自定义指标f1_score来训练一个lgb模型…

通过相关系数矩阵进行特征选择

我在测试不同的算法时,如逻辑回归、高斯朴素贝叶斯、随机…

可以将机器学习库用于流式输入和输出吗?

已关闭。此问题需要更加聚焦。目前不接受回答。 想要改进…

在TensorFlow中,queue.dequeue_up_to()方法的用途是什么?

我对这个方法感到非常困惑,特别是当我发现这个令人费解的…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注