梯度下降与fminunc的比较

我在尝试运行梯度下降算法,但使用完全相同的数据时,无法得到与Octave内置的fminunc函数相同的结果。

我的代码如下:

%for 5000 iterationsfor iter = 1:5000%%Calculate the cost and the new gradient[cost, grad] = costFunction(initial_theta, X, y);%%Gradient = Old Gradient - (Learning Rate * New Gradient)initial_theta = initial_theta - (alpha * grad);end 

其中,costFunction函数根据给定的示例(X,y)和参数(theta)计算成本和梯度。

Octave内置的fminunc函数同样调用costFunction,并且使用相同的数据,在远少的迭代次数下找到了一个更好的答案。

由于Octave使用了相同的成本函数,我认为costFunction是正确的。

我尝试过降低学习率以避免陷入局部最小值,并增加迭代次数,但成本不再下降,看起来似乎已经找到了最小值,但最终的theta值仍然具有更大的成本,并且精度远不及预期。

即使fminunc使用了更好的算法,梯度下降在足够的迭代次数和较小的学习率下最终应该能找到相同的结果吗?

或者有人能看出我哪里做错了?

感谢所有帮助。


回答:

你的评论是错误的,但算法是好的。

在梯度下降中很容易遇到数值问题,因此我建议进行特征归一化处理。

另外,如果你对学习率不确定,可以尝试动态调整它。类似于这样:

best_cost = Inf;best_theta = initial_theta;alpha = 1;for iter = 1:500  [cost, grad] = costFunction(best_theta, X_reg, y);  if (cost < best_cost)    best_theta = best_theta - alpha * grad;    best_cost = cost;  else    alpha = alpha * 0.99  endend

此外,请记住,不同的答案可能产生相同的决策边界。例如,对于假设h(x) = x(0) + theta(1) * x(1) + theta(2) * x(2),以下这些答案给出了相同的边界:

theta = [5, 10, 10];theta = [10, 20, 20];

Related Posts

使用LSTM在Python中预测未来值

这段代码可以预测指定股票的当前日期之前的值,但不能预测…

如何在gensim的word2vec模型中查找双词组的相似性

我有一个word2vec模型,假设我使用的是googl…

dask_xgboost.predict 可以工作但无法显示 – 数据必须是一维的

我试图使用 XGBoost 创建模型。 看起来我成功地…

ML Tuning – Cross Validation in Spark

我在https://spark.apache.org/…

如何在React JS中使用fetch从REST API获取预测

我正在开发一个应用程序,其中Flask REST AP…

如何分析ML.NET中多类分类预测得分数组?

我在ML.NET中创建了一个多类分类项目。该项目可以对…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注