反向传播算法问题

关于如何编写神经网络的反向传播算法,我有几个问题:

我的网络拓扑结构是一个输入层、一个隐藏层和一个输出层。隐藏层和输出层都使用 sigmoid 函数。

  1. 首先,我应该使用偏置吗?我应该把偏置连接到网络的什么地方?我应该在隐藏层和输出层的每一层都放置一个偏置单元吗?输入层呢?
  2. 这个链接中,他们将最后的 delta 定义为输入 – 输出,并且如图所示,他们反向传播这些 delta。他们保存一个表格来存放所有的 delta,然后在以正向传播的方式实际传播误差之前进行操作。这是否偏离了标准的反向传播算法?alt text
  3. 我应该随着时间的推移而降低学习率吗?
  4. 如果有人知道,ResilientPropagation 是一种在线学习技术还是批量学习技术?

谢谢

编辑: 还有一件事。在下面的图片中,假设我使用的是 sigmoid 函数,那么 d f1(e) / de 就是 f1(e) * [1- f1(e)],对吗?alt text


回答:

您的问题需要更详细地说明一下…… 您的需求是什么?泛化还是记忆?您预期的是一个复杂的模式匹配数据集,还是一个连续域的输入-输出关系?以下是我的 0.02 美元的看法:

  1. 我建议你保留一个偏置神经元,以防你需要它。如果神经网络认为它是不必要的,训练应该会将权重驱动到可以忽略不计的值。它将连接到前面一层中的每个神经元,但不与前一层中的任何神经元连接。

  2. 就我所知,这个公式看起来像是标准的反向传播。

  3. 很难概括你的学习率是否需要随着时间的推移而降低。这种行为高度依赖于数据。你的学习率越小,你的训练就会越稳定。然而,它可能会非常慢,特别是如果你像我过去那样用脚本语言运行它。

  4. Resilient backprop(或 MATLAB 中的 RProp)应该可以处理在线和批量训练模式。

我想补充一点,如果可能的话,你可能需要考虑替代激活函数。sigmoid 函数并不总是给出最好的结果……

Related Posts

L1-L2正则化的不同系数

我想对网络的权重同时应用L1和L2正则化。然而,我找不…

使用scikit-learn的无监督方法将列表分类成不同组别,有没有办法?

我有一系列实例,每个实例都有一份列表,代表它所遵循的不…

f1_score metric in lightgbm

我想使用自定义指标f1_score来训练一个lgb模型…

通过相关系数矩阵进行特征选择

我在测试不同的算法时,如逻辑回归、高斯朴素贝叶斯、随机…

可以将机器学习库用于流式输入和输出吗?

已关闭。此问题需要更加聚焦。目前不接受回答。 想要改进…

在TensorFlow中,queue.dequeue_up_to()方法的用途是什么?

我对这个方法感到非常困惑,特别是当我发现这个令人费解的…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注