如何处理在GPU上训练时的非确定性?

在调整超参数以提高模型性能时,我注意到每次运行代码得到的分数(因此生成的模型)都不同,尽管我已经固定了所有随机操作的种子。这个问题在使用CPU运行时不会发生。

我通过谷歌搜索发现,这是在使用GPU进行训练时常见的问题。这里有一个非常好且详细的示例,包含简短的代码片段以验证该问题的存在。

他们将非确定性归咎于“tf.reduce_sum”函数。然而,这对我来说并不是问题所在。这可能是因为我使用了不同的硬件(1080 TI)或不同版本的CUDA库或TensorFlow。似乎CUDA库的许多部分都是非确定性的,并且似乎很难准确找出是哪部分以及如何消除它。此外,这可能是设计使然,因此很可能为了非确定性而换来了足够的效率提升。

所以,我的疑问是:

由于GPU在训练神经网络时非常流行,这个领域的人们一定有处理非确定性的方法,因为我看不出否则你是如何可靠地调整超参数的。使用GPU时,处理非确定性的标准方法是什么?


回答:

TF 2.9 (TF >= 2.9)开始,如果你希望你的TensorFlow模型运行得具有确定性,需要在程序开始时添加以下几行代码。

import tensorflow as tftf.keras.utils.set_random_seed(1)tf.config.experimental.enable_op_determinism()

重要说明:第一行设置了以下内容的随机种子:Python、NumPy和TensorFlow。第二行使每个TensorFlow操作具有确定性。

Related Posts

L1-L2正则化的不同系数

我想对网络的权重同时应用L1和L2正则化。然而,我找不…

使用scikit-learn的无监督方法将列表分类成不同组别,有没有办法?

我有一系列实例,每个实例都有一份列表,代表它所遵循的不…

f1_score metric in lightgbm

我想使用自定义指标f1_score来训练一个lgb模型…

通过相关系数矩阵进行特征选择

我在测试不同的算法时,如逻辑回归、高斯朴素贝叶斯、随机…

可以将机器学习库用于流式输入和输出吗?

已关闭。此问题需要更加聚焦。目前不接受回答。 想要改进…

在TensorFlow中,queue.dequeue_up_to()方法的用途是什么?

我对这个方法感到非常困惑,特别是当我发现这个令人费解的…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注