例如,对于3-1-1层的网络,如果权重初始化为相同的值,MLP可能无法很好地学习。但为什么会发生这种情况呢?
回答:
如果隐藏层只有一个神经元,这并不重要。但是,假设有一个隐藏层有两个神经元的网络。如果它们的输入权重相同,那么这两个神经元的激活值将总是完全相同,第二个神经元不会提供额外的信息。在反向传播步骤中,这些权重会以相同的量发生变化。因此,在每次迭代中,这些隐藏层的神经元总是具有相同的激活值。
例如,对于3-1-1层的网络,如果权重初始化为相同的值,MLP可能无法很好地学习。但为什么会发生这种情况呢?
回答:
如果隐藏层只有一个神经元,这并不重要。但是,假设有一个隐藏层有两个神经元的网络。如果它们的输入权重相同,那么这两个神经元的激活值将总是完全相同,第二个神经元不会提供额外的信息。在反向传播步骤中,这些权重会以相同的量发生变化。因此,在每次迭代中,这些隐藏层的神经元总是具有相同的激活值。