我在安德鲁· Ng 教授的讲座帮助下实现神经网络,或者参考这个,使用图31中的算法。
我认为我已经很好地理解了前向传播和反向传播,但对每次迭代后更新权重(theta)感到困惑。
问题1. 何时以及如何更新权重(theta)矩阵 – theta1, theta2?
问题2. 大Delta的作用是什么?[已解决,感谢@xhudik]
问题3. 我们是否需要在输入层和隐藏层中添加+1(偏置单元)?
回答:
问题1:由@nikie解释(赞)
问题2:安德鲁· Ng的演示非常棒。然而,你所指的是一个高层次的演示,并且想了解更多细节。看看这个怎么样:http://galaxy.agh.edu.pl/~vlsi/AI/backp_t_en/backprop.html 它提供了更多细节和有用的图形