在阅读这本书时,我了解到以下内容:
对于每个训练实例,反向传播算法首先进行预测(前向传递),测量误差,然后逆向遍历每一层以测量每个连接的误差贡献(反向传递),最后略微调整连接权重以减少误差。
然而,我不确定这与TensorFlow的反向模式自动微分实现有何不同。
据我所知,反向模式自动微分首先沿着图的前向方向进行,然后在第二次传递中计算输出相对于输入的所有偏导数。这与传播算法非常相似。
反向传播与反向模式自动微分有何不同?
回答:
感谢David Parks的回答提供了有效的贡献和有用的链接,但我找到了这本书作者本人的回答,这可能提供了更简洁的答案:
反向传播是指使用多个反向传播步骤训练人工神经网络的整个过程,每个步骤计算梯度并使用它们执行梯度下降步骤。相比之下,反向模式自动微分仅仅是一种有效计算梯度的方法,而它恰好被反向传播所使用。