非常大的神经网络中是否需要偏置节点?

我理解偏置节点在神经网络中的作用,以及它在小型网络中通过移动激活函数的重要性。我的问题是:在非常大的网络中(更具体地说,是使用ReLu激活函数的卷积神经网络,用于图像识别,具有3个卷积层,2个隐藏层和超过10万个连接),偏置是否仍然重要,或者它的影响是否会被大量的激活所淹没?

我问这个的原因是,在过去我构建的网络中,我曾忘记实现偏置节点,但在添加后发现性能差异微乎其微。这是否可能是由于偶然性,即特定数据集不需要偏置?在大型网络中,我是否需要用更大的值来初始化偏置?任何其他建议将不胜感激。


回答:

偏置节点/项的存在只是为了确保预测输出是无偏的。如果你的输入具有从-1到+1的动态范围,而你的输出只是输入的简单平移+3,那么带有偏置项的神经网络将简单地使偏置神经元具有非零权重,而其他权重为零。如果在这种情况下没有偏置神经元,所有激活函数和权重将被优化,以尽可能模拟简单的加法,使用S形函数/切线和乘法。

如果你的输入和输出具有相同的范围,比如从-1到+1,那么偏置项可能不会有用。

你可以查看你提到的实验中偏置节点的权重。或者它非常低,这可能意味着输入和输出已经居中。或者它很重要,我打赌其他权重的方差会减少,从而导致一个更稳定(且不太容易过拟合)的神经网络。

Related Posts

L1-L2正则化的不同系数

我想对网络的权重同时应用L1和L2正则化。然而,我找不…

使用scikit-learn的无监督方法将列表分类成不同组别,有没有办法?

我有一系列实例,每个实例都有一份列表,代表它所遵循的不…

f1_score metric in lightgbm

我想使用自定义指标f1_score来训练一个lgb模型…

通过相关系数矩阵进行特征选择

我在测试不同的算法时,如逻辑回归、高斯朴素贝叶斯、随机…

可以将机器学习库用于流式输入和输出吗?

已关闭。此问题需要更加聚焦。目前不接受回答。 想要改进…

在TensorFlow中,queue.dequeue_up_to()方法的用途是什么?

我对这个方法感到非常困惑,特别是当我发现这个令人费解的…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注