我知道解决方案,但我不明白下面的方程是如何转化为代码的。
- 为什么缺少求和符号?
- 为什么要转置 ((sigmoid(X *theta)-y) 表达式?
解决方案
grad = (1/m) * ((sigmoid(X * theta)-y)' * X);
回答:
原始的 J(theta) 表示逻辑回归的成本函数。
你展示的代码,grad = ...
,是 J(theta) 相对于参数的梯度;也就是说,grad
是 d/dtheta J(theta) 的实现。导数很重要,因为它在梯度下降中用于将参数移动到其最优值(以最小化成本 J(theta))。
下面是梯度的公式,用红色标出,来自下方第一个链接。请注意,J(theta) 与你上面的公式相同,h(x) 表示 sigmoid 函数。
所有训练样本的总梯度需要对 m 进行求和。在你上面的 grad
代码中,由于省略了求和,你计算的是一个训练样本的梯度;因此,你的代码可能是在计算随机梯度下降的梯度,而不是完整的梯度下降。
如需更多信息,你可以搜索“逻辑回归成本函数导数”,这会引导你到以下链接:
-
这个特别的链接包含你需要的所有内容:http://feature-space.com/2011/10/28/logistic-cost-function-derivative/
-
这些显然是 Andrew Ng 关于机器学习和逻辑回归的梯度下降课程的讲义笔记:http://www.holehouse.org/mlclass/06_Logistic_Regression.html
-
如何逐步计算导数的解释:https://math.stackexchange.com/questions/477207/derivative-of-cost-function-for-logistic-regression