梯度下降的数学实现解释需求。

我知道解决方案,但我不明白下面的方程是如何转化为代码的。

Gradient Descent

  • 为什么缺少求和符号?
  • 为什么要转置 ((sigmoid(X *theta)-y) 表达式?

解决方案

grad  = (1/m) * ((sigmoid(X * theta)-y)' * X);

回答:

原始的 J(theta) 表示逻辑回归的成本函数。

你展示的代码,grad = ...,是 J(theta) 相对于参数的梯度;也就是说,grad 是 d/dtheta J(theta) 的实现。导数很重要,因为它在梯度下降中用于将参数移动到其最优值(以最小化成本 J(theta))。

下面是梯度的公式,用红色标出,来自下方第一个链接。请注意,J(theta) 与你上面的公式相同,h(x) 表示 sigmoid 函数。

所有训练样本的总梯度需要对 m 进行求和。在你上面的 grad 代码中,由于省略了求和,你计算的是一个训练样本的梯度;因此,你的代码可能是在计算随机梯度下降的梯度,而不是完整的梯度下降。

enter image description here

如需更多信息,你可以搜索“逻辑回归成本函数导数”,这会引导你到以下链接:

  1. 这个特别的链接包含你需要的所有内容:http://feature-space.com/2011/10/28/logistic-cost-function-derivative/

  2. 这些显然是 Andrew Ng 关于机器学习和逻辑回归的梯度下降课程的讲义笔记:http://www.holehouse.org/mlclass/06_Logistic_Regression.html

  3. 如何逐步计算导数的解释:https://math.stackexchange.com/questions/477207/derivative-of-cost-function-for-logistic-regression

Related Posts

使用LSTM在Python中预测未来值

这段代码可以预测指定股票的当前日期之前的值,但不能预测…

如何在gensim的word2vec模型中查找双词组的相似性

我有一个word2vec模型,假设我使用的是googl…

dask_xgboost.predict 可以工作但无法显示 – 数据必须是一维的

我试图使用 XGBoost 创建模型。 看起来我成功地…

ML Tuning – Cross Validation in Spark

我在https://spark.apache.org/…

如何在React JS中使用fetch从REST API获取预测

我正在开发一个应用程序,其中Flask REST AP…

如何分析ML.NET中多类分类预测得分数组?

我在ML.NET中创建了一个多类分类项目。该项目可以对…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注