更新梯度下降的方程

如果我们有一个近似函数 y = f(w,x),其中 x 是输入,y 是输出,w 是权重。根据梯度下降规则,我们应该按照 w = w – df/dw 来更新权重。但是,我们是否可以按照 w = w – w * df/dw 来更新权重呢?之前有人见过这种方法吗?我想这样做的原因是因为在我的算法中这样做更容易实现。


回答:

回顾一下,梯度下降是基于 f(w, x) 在 w 附近的泰勒展开,并且其目的——在你的语境中——是重复以小步修改权重。反向梯度方向只是一个基于函数 f(w, x) 非常局部知识的搜索方向。

通常,权重的迭代包括一个步长,得到的表达式为

w_(i+1) = w_(i) - nu_j df/dw,

其中步长 nu_j 的值是通过线性搜索找到的,参见例如 https://en.wikipedia.org/wiki/Line_search

因此,基于上述讨论,回答你的问题:不,按照

w_(i+1) = w_(i) - w_(i) df/dw

来更新并不是一个好主意。为什么?如果 w_(i) 很大(在上下文中),我们将基于非常局部信息采取巨大的步骤,我们将使用与细步梯度下降方法非常不同的方法。

此外,正如评论中 @lejlot 指出的,如果 w(i) 为负值,你将沿着梯度的(正)方向前进,即沿着函数增长最快的方向,这在局部是最差的搜索方向(对于最小化问题)。

Related Posts

L1-L2正则化的不同系数

我想对网络的权重同时应用L1和L2正则化。然而,我找不…

使用scikit-learn的无监督方法将列表分类成不同组别,有没有办法?

我有一系列实例,每个实例都有一份列表,代表它所遵循的不…

f1_score metric in lightgbm

我想使用自定义指标f1_score来训练一个lgb模型…

通过相关系数矩阵进行特征选择

我在测试不同的算法时,如逻辑回归、高斯朴素贝叶斯、随机…

可以将机器学习库用于流式输入和输出吗?

已关闭。此问题需要更加聚焦。目前不接受回答。 想要改进…

在TensorFlow中,queue.dequeue_up_to()方法的用途是什么?

我对这个方法感到非常困惑,特别是当我发现这个令人费解的…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注