为什么我在使用RELU激活函数时,TensorFlow网络的权重和成本会变成NaN?

我无法让TensorFlow的RELU激活函数(无论是tf.nn.relu还是tf.nn.relu6)正常工作,因为激活值和权重中的NaN值会导致我的训练过程失败。

我认为我遵循了所有正确的通用建议。例如,我用以下方式初始化我的权重:

weights = tf.Variable(tf.truncated_normal(w_dims, stddev=0.1))biases = tf.Variable(tf.constant(0.1 if neuron_fn in [tf.nn.relu, tf.nn.relu6] else 0.0, shape=b_dims))

并且使用较慢的训练速率,例如:

tf.train.MomentumOptimizer(0.02, momentum=0.5).minimize(cross_entropy_loss)

但是,任何深度可观的网络都会导致成本和至少一些权重(至少在它们的摘要直方图中)变成NaN。事实上,成本常常从一开始(在训练之前)就是NaN

即使我使用L2(约0.001)正则化和丢弃(约50%)时,我也遇到了这些问题。

有什么参数或设置我应该调整以避免这些问题吗?我不知道从哪里开始查找,所以任何建议都会受到欢迎!


回答:

根据He et. al(如lejlot的评论中所建议)的方法,将第l层的权重初始化为均值为零的高斯分布,标准差为

其中nl是输入向量的展平长度,或者

stddev=np.sqrt(2 / np.prod(input_tensor.get_shape().as_list()[1:]))

这样初始化的权重通常不会发散。

Related Posts

L1-L2正则化的不同系数

我想对网络的权重同时应用L1和L2正则化。然而,我找不…

使用scikit-learn的无监督方法将列表分类成不同组别,有没有办法?

我有一系列实例,每个实例都有一份列表,代表它所遵循的不…

f1_score metric in lightgbm

我想使用自定义指标f1_score来训练一个lgb模型…

通过相关系数矩阵进行特征选择

我在测试不同的算法时,如逻辑回归、高斯朴素贝叶斯、随机…

可以将机器学习库用于流式输入和输出吗?

已关闭。此问题需要更加聚焦。目前不接受回答。 想要改进…

在TensorFlow中,queue.dequeue_up_to()方法的用途是什么?

我对这个方法感到非常困惑,特别是当我发现这个令人费解的…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注