激活函数的导数与损失函数的偏导数

AI中的一些术语让我感到困惑。反向传播中使用的导数函数是激活函数的导数还是损失函数的导数

这些术语让我困惑:激活函数的导数,损失函数的偏导数??

我还是没有完全理解。


回答:

当你优化一个模型时,你会定义一个损失函数。这通常代表相对于某些训练数据的误差。

通常使用基于梯度的优化方法来最小化这个误差。常见的有随机梯度下降(SGD)及其相关方法(如Adam、Adagrad等)。

损失函数的梯度是由模型中每个权重的损失的偏导数组成的向量。

在每次迭代中,权重会沿着梯度的相反方向更新(记住我们是在最小化)。

我猜你可能会感到困惑的原因是由于链式法则,在计算损失函数的梯度时,需要对激活函数进行求导。但请记住,这是因为链式法则的缘故。

Related Posts

L1-L2正则化的不同系数

我想对网络的权重同时应用L1和L2正则化。然而,我找不…

使用scikit-learn的无监督方法将列表分类成不同组别,有没有办法?

我有一系列实例,每个实例都有一份列表,代表它所遵循的不…

f1_score metric in lightgbm

我想使用自定义指标f1_score来训练一个lgb模型…

通过相关系数矩阵进行特征选择

我在测试不同的算法时,如逻辑回归、高斯朴素贝叶斯、随机…

可以将机器学习库用于流式输入和输出吗?

已关闭。此问题需要更加聚焦。目前不接受回答。 想要改进…

在TensorFlow中,queue.dequeue_up_to()方法的用途是什么?

我对这个方法感到非常困惑,特别是当我发现这个令人费解的…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注