以下是我机器学习教授提供的用于线性回归的梯度下降的Python实现。我认为我理解了它的工作原理,但是教授在讲座中提到,这并不是该算法的完整实现,因为它应该重复执行直到theta_0(m)和theta_1(c)收敛。他建议我们尝试修改这个实现,使其在收敛时停止,而不是在固定的轮次上,这样可以更熟悉这个算法,不过我还不太确定从哪里开始。有没有一些建议?
# 构建模型
m = 0
c = 0
L = 0.0001 # 学习率
epochs = 1000 # 执行梯度下降的迭代次数
n = float(len(X)) # X中的元素数量
# 执行梯度下降
for i in range(epochs):
Y_pred = m*X + c # 当前预测的Y值
D_m = (-2/n) * sum(X * (Y - Y_pred)) # 相对于m的导数
D_c = (-2/n) * sum(Y - Y_pred) # 相对于c的导数
m = m - L * D_m # 更新m
c = c - L * D_c # 更新c
print (m, c)
回答:
本质上,收敛是指损失值稳定在一个特定值上,即它变得或多或少是恒定的。因此,要在收敛时停止梯度下降,只需在每次梯度下降迭代中使用m和c的值计算成本函数(也称为损失函数)。你可以为损失设置一个阈值,或者检查它是否变得恒定,这就是你的模型收敛的时候。