谁能帮我解释一下这段代码:
Theta1_grad(:, 1) = Theta1_grad(:, 1) ./ m;Theta1_grad(:, 2:end) = Theta1_grad(:, 2:end) ./ m + ((lambda/m) * Theta1(:, 2:end));
我在用Python实现这个功能,我不熟悉Octave,我只是找到了这个神经网络的实现,但我不明白这段代码在做什么。
参考资料: http://feature-space.com/en/document49.pdf – 第12页 (2.5)
编辑:
没关系,我想它是试图不修改第一列。
回答:
Theta1_grad(:, 1)
获取矩阵 Theta1_grad
的第一列,然后将这个向量的每个元素除以 m
的值
Theta1_grad(:, 2:end)
获取矩阵从第二列到最后一列的所有部分(基本上是除了第一列之外的所有列)
通常第一列被设置为 1
,以便估计模型的截距
一般来说,在Octave中,算术运算前加 .
表示逐元素操作,例如,A * B
是普通的矩阵乘法,但 A .* B
是逐元素乘法
阅读 Octave快速参考,会对你有帮助。
编辑:
这个方程是用于正则化神经网络的(以降低过拟合的风险)
Theta1_grad(:, 2:end) = Theta1_grad(:, 2:end) ./ m + ((lambda/m) * Theta1(:, 2:end));
我没有看到完整的代码,但我认为 lambda 不是学习率,它是正则化参数(或惩罚项),并且它乘以的是 Theta1
本身,而不是梯度。