我理解偏置节点在神经网络中的作用,以及它在小型网络中通过移动激活函数的重要性。我的问题是:在非常大的网络中(更具体地说,是使用ReLu激活函数的卷积神经网络,用于图像识别,具有3个卷积层,2个隐藏层和超过10万个连接),偏置是否仍然重要,或者它的影响是否会被大量的激活所淹没?
我问这个的原因是,在过去我构建的网络中,我曾忘记实现偏置节点,但在添加后发现性能差异微乎其微。这是否可能是由于偶然性,即特定数据集不需要偏置?在大型网络中,我是否需要用更大的值来初始化偏置?任何其他建议将不胜感激。
回答:
偏置节点/项的存在只是为了确保预测输出是无偏的。如果你的输入具有从-1到+1的动态范围,而你的输出只是输入的简单平移+3,那么带有偏置项的神经网络将简单地使偏置神经元具有非零权重,而其他权重为零。如果在这种情况下没有偏置神经元,所有激活函数和权重将被优化,以尽可能模拟简单的加法,使用S形函数/切线和乘法。
如果你的输入和输出具有相同的范围,比如从-1到+1,那么偏置项可能不会有用。
你可以查看你提到的实验中偏置节点的权重。或者它非常低,这可能意味着输入和输出已经居中。或者它很重要,我打赌其他权重的方差会减少,从而导致一个更稳定(且不太容易过拟合)的神经网络。