为什么ANN中需要BIAS?我们应该为每一层设置单独的BIAS吗?

我想构建一个模型来预测输入信号的未来响应,我的网络架构是[3, 5, 1]:

  • 3个输入,
  • 隐藏层有5个神经元,
  • 输出层有1个神经元。

我的问题是:

  1. 我们应该为每个隐藏层和输出层设置单独的BIAS吗?
  2. 我们应该为每一层的BIAS分配权重吗(因为BIAS作为网络的额外值,会增加网络的负担)?
  3. 为什么BIAS总是设置为1?如果eta有不同的值,为什么我们不设置不同的BIAS值?
  4. 为什么我们总是使用对数S形函数作为非线性函数,我们可以使用tanh吗?

回答:

因此,如果我们退一步来讨论偏置单元在神经网络中的作用,我想这将能澄清大部分问题。

偏置单元的目的是让网络中的单元能够学习到适当的阈值(即在达到一定的总输入后,开始发送正激活),因为通常正的总输入意味着正的激活。

例如,如果你的偏置单元与某个神经元x的权重为-2,那么当所有其他输入的总和大于-2时,神经元x将提供正激活。

有了这个背景,你的问题的答案如下:

  1. 不需要,一个偏置输入总是足够的,因为它可以根据与每个单元的权重不同地影响不同的神经元。
  2. 一般来说,为每个非输入单元设置偏置权重是个好主意,否则没有偏置权重的那些单元的阈值将始终为零。
  3. 因为一旦学习到,阈值应该在各次试验中保持一致。记住,偏置代表了每个单元如何与输入交互;它本身不是输入。
  4. 你当然可以,许多人也是这么做的。任何压缩函数通常都可以作为激活函数使用。

Related Posts

L1-L2正则化的不同系数

我想对网络的权重同时应用L1和L2正则化。然而,我找不…

使用scikit-learn的无监督方法将列表分类成不同组别,有没有办法?

我有一系列实例,每个实例都有一份列表,代表它所遵循的不…

f1_score metric in lightgbm

我想使用自定义指标f1_score来训练一个lgb模型…

通过相关系数矩阵进行特征选择

我在测试不同的算法时,如逻辑回归、高斯朴素贝叶斯、随机…

可以将机器学习库用于流式输入和输出吗?

已关闭。此问题需要更加聚焦。目前不接受回答。 想要改进…

在TensorFlow中,queue.dequeue_up_to()方法的用途是什么?

我对这个方法感到非常困惑,特别是当我发现这个令人费解的…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注