梯度下降的数学实现解释需求。

我知道解决方案,但我不明白下面的方程是如何转化为代码的。

Gradient Descent

  • 为什么缺少求和符号?
  • 为什么要转置 ((sigmoid(X *theta)-y) 表达式?

解决方案

grad  = (1/m) * ((sigmoid(X * theta)-y)' * X);

回答:

原始的 J(theta) 表示逻辑回归的成本函数。

你展示的代码,grad = ...,是 J(theta) 相对于参数的梯度;也就是说,grad 是 d/dtheta J(theta) 的实现。导数很重要,因为它在梯度下降中用于将参数移动到其最优值(以最小化成本 J(theta))。

下面是梯度的公式,用红色标出,来自下方第一个链接。请注意,J(theta) 与你上面的公式相同,h(x) 表示 sigmoid 函数。

所有训练样本的总梯度需要对 m 进行求和。在你上面的 grad 代码中,由于省略了求和,你计算的是一个训练样本的梯度;因此,你的代码可能是在计算随机梯度下降的梯度,而不是完整的梯度下降。

enter image description here

如需更多信息,你可以搜索“逻辑回归成本函数导数”,这会引导你到以下链接:

  1. 这个特别的链接包含你需要的所有内容:http://feature-space.com/2011/10/28/logistic-cost-function-derivative/

  2. 这些显然是 Andrew Ng 关于机器学习和逻辑回归的梯度下降课程的讲义笔记:http://www.holehouse.org/mlclass/06_Logistic_Regression.html

  3. 如何逐步计算导数的解释:https://math.stackexchange.com/questions/477207/derivative-of-cost-function-for-logistic-regression

Related Posts

L1-L2正则化的不同系数

我想对网络的权重同时应用L1和L2正则化。然而,我找不…

使用scikit-learn的无监督方法将列表分类成不同组别,有没有办法?

我有一系列实例,每个实例都有一份列表,代表它所遵循的不…

f1_score metric in lightgbm

我想使用自定义指标f1_score来训练一个lgb模型…

通过相关系数矩阵进行特征选择

我在测试不同的算法时,如逻辑回归、高斯朴素贝叶斯、随机…

可以将机器学习库用于流式输入和输出吗?

已关闭。此问题需要更加聚焦。目前不接受回答。 想要改进…

在TensorFlow中,queue.dequeue_up_to()方法的用途是什么?

我对这个方法感到非常困惑,特别是当我发现这个令人费解的…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注