线性回归的梯度下降法爆炸

我正在尝试使用这个资源来实现线性回归的梯度下降法:https://spin.atomicobject.com/2014/06/24/gradient-descent-linear-regression/

我的问题是我的权重在爆炸(指数增长),基本上在做与预期相反的事情。

首先我创建了一个数据集:

def y(x, a):    return 2*x + a*np.random.random_sample(len(x)) - a/2x = np.arange(20)y_true = y(x,10)

看起来像这样:

随机数据

以及要优化的线性函数:

def y_predict(x, m, b):    return m*x + b

所以对于一些随机选择的参数,结果是这样的:

m0 = 1b0 = 1a = y_predict(x, m0, b0)plt.scatter(x, y_true)plt.plot(x, a)plt.show()

输入图片描述

现在成本函数看起来像这样:

cost = (1/2)* np.sum((y_true - a) ** 2)

成本相对于预测的偏导数(dc_da):

dc_da = (a - y_true) # 仍然是一个向量

成本相对于斜率参数的偏导数(dc_dm):

dc_dm = dc_da.dot(x) # 现在是一个常数 

以及成本相对于y截距参数的偏导数(dc_db):

dc_db = np.sum(dc_da) # 也是一个常数

最后是梯度下降法的实现:

iterations = 10m0 = 1b0 = 1learning_rate = 0.1N = len(x)for i in range(iterations):        a = y_predict(x, m0, b0)        cost = (1/2) * np.sum((y_true - a) ** 2)        dc_da = (a - y_true)        mgrad = dc_da.dot(x)    bgrad = np.sum(dc_da)        m0 -= learning_rate * (2 / N) * mgrad    b0 -= learning_rate * (2 / N) * bgrad        if (i % 2 == 0):        print("Iteration {}".format(i))        print("Cost: {}, m: {}, b: {}\n".format(cost, m0, b0))

结果是这样的:

Iteration 0Cost: 1341.5241150881411, m: 26.02473879743261, b: 2.8683883457327797Iteration 2Cost: 409781757.38124645, m: 13657.166910552878, b: 1053.5831308528543Iteration 4Cost: 132510115599264.75, m: 7765058.4350503925, b: 598610.1166795876Iteration 6Cost: 4.284947676217907e+19, m: 4415631880.089208, b: 340401694.5610262Iteration 8Cost: 1.3856132043127762e+25, m: 2510967578365.3584, b: 193570850213.62192

我的实现有什么问题?


回答:

问题出在学习率上。

在0.1的学习率下,步长太大,导致它们逃离了下坡梯度。

在0.001的学习率下,结果是这样的:

Iteration 0Cost: 1341.5241150881411, m: 1.250247387974326, b: 1.0186838834573277Iteration 20Cost: 74.23350734398517, m: 2.0054600094398487, b: 1.0648169455682297Iteration 40Cost: 74.14854910310204, m: 2.00886824141609, b: 1.0531220375231194Iteration 60Cost: 74.07892801481468, m: 2.0097830838155835, b: 1.0413622803654885Iteration 80Cost: 74.01078231057598, m: 2.0106800645568503, b: 1.0297271562539492

看起来像这样:

plt.scatter(x,y_true)plt.plot(x, a)plt.show()

输入图片描述

Related Posts

L1-L2正则化的不同系数

我想对网络的权重同时应用L1和L2正则化。然而,我找不…

使用scikit-learn的无监督方法将列表分类成不同组别,有没有办法?

我有一系列实例,每个实例都有一份列表,代表它所遵循的不…

f1_score metric in lightgbm

我想使用自定义指标f1_score来训练一个lgb模型…

通过相关系数矩阵进行特征选择

我在测试不同的算法时,如逻辑回归、高斯朴素贝叶斯、随机…

可以将机器学习库用于流式输入和输出吗?

已关闭。此问题需要更加聚焦。目前不接受回答。 想要改进…

在TensorFlow中,queue.dequeue_up_to()方法的用途是什么?

我对这个方法感到非常困惑,特别是当我发现这个令人费解的…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注