我刚刚开始在Coursera上学习@的《机器学习》课程。第三周的主题是逻辑回归,所以我正在尝试实现以下成本函数。
假设定义为:
其中g是Sigmoid函数:
这是我当前的函数样子:
function [J, grad] = costFunction(theta, X, y)m = length(y); % 训练样本的数量S = 0;J = 0;for i=1:m Yi = y(i); Xi = X(i,:); H = sigmoid(transpose(theta).*Xi); S = S + ((-Yi)*log(H)-((1-Yi)*log(1-H)));endJ = S/m;end
给定以下值
X = [magic(3) ; magic(3)];y = [1 0 1 0 1 0]';[j g] = costFunction([0 1 0]', X, y)
j返回0.6931 2.6067 0.6931,尽管结果应该是j = 2.6067。我认为Xi可能有问题,但我找不到错误所在。
如果有人能指导我正确的方向,我将非常感激。
回答:
你应该对参数向量(theta)和输入向量(Xi
,在这种情况下是一个行向量)的点积应用Sigmoid函数。因此,你应该将
H = sigmoid(transpose(theta).*Xi);
改为
H = sigmoid(theta' * Xi'); % 或者 sigmoid(Xi * theta)
当然,你需要确保将偏置输入1添加到你的输入中(向X
添加一行1)。
接下来,考虑如何将整个操作向量化,以便可以不使用任何循环来编写。这样会快得多。