反向传播和反向模式自动微分有什么区别?

在阅读这本时,我了解到以下内容:

对于每个训练实例,反向传播算法首先进行预测(前向传递),测量误差,然后逆向遍历每一层以测量每个连接的误差贡献(反向传递),最后略微调整连接权重以减少误差。

然而,我不确定这与TensorFlow的反向模式自动微分实现有何不同。

据我所知,反向模式自动微分首先沿着图的前向方向进行,然后在第二次传递中计算输出相对于输入的所有偏导数。这与传播算法非常相似。

反向传播与反向模式自动微分有何不同?


回答:

感谢David Parks的回答提供了有效的贡献和有用的链接,但我找到了这本书作者本人的回答,这可能提供了更简洁的答案:

反向传播是指使用多个反向传播步骤训练人工神经网络的整个过程,每个步骤计算梯度并使用它们执行梯度下降步骤。相比之下,反向模式自动微分仅仅是一种有效计算梯度的方法,而它恰好被反向传播所使用。

Related Posts

L1-L2正则化的不同系数

我想对网络的权重同时应用L1和L2正则化。然而,我找不…

使用scikit-learn的无监督方法将列表分类成不同组别,有没有办法?

我有一系列实例,每个实例都有一份列表,代表它所遵循的不…

f1_score metric in lightgbm

我想使用自定义指标f1_score来训练一个lgb模型…

通过相关系数矩阵进行特征选择

我在测试不同的算法时,如逻辑回归、高斯朴素贝叶斯、随机…

可以将机器学习库用于流式输入和输出吗?

已关闭。此问题需要更加聚焦。目前不接受回答。 想要改进…

在TensorFlow中,queue.dequeue_up_to()方法的用途是什么?

我对这个方法感到非常困惑,特别是当我发现这个令人费解的…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注