我正在尝试学习神经网络,但网上的资料非常密集,我只想理解这个特定、简单的案例。这将帮助我进一步学习包含隐藏层的更复杂内容。
假设我有2个输入,1个输出,没有隐藏层。输入和输出都是实数值。我使用S形函数 $\frac{1}{1+e^{-x}}$。
假设我得到一个输出A,对于给定的权重W1和W2,但我想要一个输出B。我需要根据误差来调整权重。
更新时,每个权重具体会变成什么?
我在网上看到了一些使用S形函数导数的解释,但我不知道这些是从哪里来的。我看到误差被计算为 $\frac{1}{2}(A-B)^2$,有时候只是 $A-B$。这很 confusing。
(刚意识到stackoverflow上没有MathJax。希望你还能读懂。)
更新: 我可能已经搞明白了,如果有人能确认这点,那就太好了。
新的W1 = W1 + n * (X1) * (W1) * d * (e^x) / (e^x+1)^2,其中n是学习率,X1是第一个输入,X2是第二个输入,d是误差,或B-A。x=W1X1 + W2X2,末尾的函数是S形函数的导数。另一个权重的更新方式类似:新的W2 = W2 + n * (X2) * (W2) * d * (e^x) / (e^x + 1)^2
(输入这种符号真是太糟糕了。)
这都是正确的吗?
回答:
是的,这是正确的。这个案例的完整推导在这里给出:http://en.wikipedia.org/wiki/Backpropagation#Derivation
你的公式对应于“如果j是一个输出神经元”的第一种情况;你简化了phi(x) (1-phi(x)) = (e^x) / (e^x+1)^2,其中phi(x) = 1/(1+e^-x)。