梯度下降法在一个参数上比另一个参数收敛得更快

我在JavaScript中实现了我的第一个(单变量)线性回归的梯度下降法。

const LEARNING_RATE = 0.000001;let m = 0;let b = 0;const hypothesis = x => m * x + b;const learn = (alpha) => {  if (x.length <= 0) return;  let sum1 = 0;  let sum2 = 0;  for (var i = 0; i < x.length; i++) {    sum1 += hypothesis(x[i]) - y[i];    sum2 += (hypothesis(x[i]) - y[i]) * x[i];  }  b = b - alpha * sum1 / (x.length);  m = m - alpha * sum2 / (x.length);}// repeat until convergence learn(LEARNING_RATE);

假设中的斜率m调整得很快,但y轴上的交点调整需要很长时间。我不得不为b使用不同的学习率才能使其正常工作。

const learn = (alpha) => {  if (x.length <= 0) return;  let sum1 = 0;  let sum2 = 0;  for (var i = 0; i < x.length; i++) {    sum1 += hypothesis(x[i]) - y[i];    sum2 += (hypothesis(x[i]) - y[i]) * x[i];  }  b = b - 100000 * alpha * sum1 / (x.length);  m = m - alpha * sum2 / (x.length);}

有人能指出算法的问题所在吗?可以在GitHub仓库这篇文章中找到它。


回答:

首先,你需要关注的是到达全局最小值的收敛速度,而不是偏置的变化速度。模型中没有错误(也许你只是忘记了2/N系数,但对于m和b系数,这个参数将是1)。

如你所知,梯度下降法使用预测误差在每次迭代中更新权重。因此,如果你的偏置获得的误差很小,那么更新将带来很小的变化。这是模型的正常行为。

这里有一个很好的解释示例。

附注:自定义学习率的改变可能会导致异常行为和降低到全局最小值的问题。推荐这个课程我上面发布的课程链接

Related Posts

L1-L2正则化的不同系数

我想对网络的权重同时应用L1和L2正则化。然而,我找不…

使用scikit-learn的无监督方法将列表分类成不同组别,有没有办法?

我有一系列实例,每个实例都有一份列表,代表它所遵循的不…

f1_score metric in lightgbm

我想使用自定义指标f1_score来训练一个lgb模型…

通过相关系数矩阵进行特征选择

我在测试不同的算法时,如逻辑回归、高斯朴素贝叶斯、随机…

可以将机器学习库用于流式输入和输出吗?

已关闭。此问题需要更加聚焦。目前不接受回答。 想要改进…

在TensorFlow中,queue.dequeue_up_to()方法的用途是什么?

我对这个方法感到非常困惑,特别是当我发现这个令人费解的…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注