输出神经元的误差

在具有反向传播的神经网络中,完成前向传递后,下一步是计算输出神经元的误差。下图显示输出神经元的误差为 δ = z - y。反向传播的完整文本可在此处找到 这里我理解这部分内容。

带有反向传播的多层感知器神经网络

如果神经元的激活函数是Sigmoid函数,我在另一篇文章中读到,误差不应简单地计算为差异,而是应为 δ = y*(1-y)*(z - y)

能否有熟悉这方面的人解释一下背后的原理?为什么使用Sigmoid激活函数会导致误差计算变为:δ = y*(1-y)*(z - y) 而不再是:δ = (z - y)

我找到的唯一类似问题是这个,然而提问者并未询问为什么误差是这样计算的。


回答:

忘记那些时髦的名字如反向传播,它不过是简单的数学优化任务。优化成本函数的一种可能方法是使用梯度下降迭代算法,要使用它,你需要知道目标函数的导数。即你需要知道如何调整你的参数来最小化某个函数。幸运的是,导数在某种意义上显示了如果你改变某个参数,你的函数会如何变化。

在你的情况下,你有两个不同的优化任务。

第一个目标函数是 enter image description here 索引i表示数据集中的特定样本。

enter image description here

但如果你在你的假设中加入Sigmoid函数 enter image description here

你应该根据链式法则计算你的导数,因为Sigmoid函数是非线性的。

enter image description here

enter image description here

enter image description here

所以:

enter image description here

Related Posts

L1-L2正则化的不同系数

我想对网络的权重同时应用L1和L2正则化。然而,我找不…

使用scikit-learn的无监督方法将列表分类成不同组别,有没有办法?

我有一系列实例,每个实例都有一份列表,代表它所遵循的不…

f1_score metric in lightgbm

我想使用自定义指标f1_score来训练一个lgb模型…

通过相关系数矩阵进行特征选择

我在测试不同的算法时,如逻辑回归、高斯朴素贝叶斯、随机…

可以将机器学习库用于流式输入和输出吗?

已关闭。此问题需要更加聚焦。目前不接受回答。 想要改进…

在TensorFlow中,queue.dequeue_up_to()方法的用途是什么?

我对这个方法感到非常困惑,特别是当我发现这个令人费解的…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注