使用线性回归时必须在成本函数中添加L2正则化吗?

使用线性回归时必须在成本函数中添加L2正则化吗?

我在计算成本时没有添加L2正则化或考虑它。这样做不对吗?

下面的代码片段应该足够了:

def gradient(self, X, Y, alpha, minibatch_size):    predictions = None    for batch in self.iterate_minibatches(X, Y, minibatch_size, shuffle=True):        x, y = batch        predictions = x.dot(self.theta)        for it in range(self.theta.size):            temp = x[:, it]            temp.shape = (y.size, 1)            errors_x1 = (predictions - y) * temp            self.theta[it] = self.theta[it] - alpha * (1.0 / y.size) * errors_x1.sum() + self.lambda_l2 * self.theta[it] * self.theta[it].T    print self.cost(X, Y, self.theta)def cost(self, X, Y, theta, store=True):    predictions = X.dot(theta)    from sklearn.metrics import mean_squared_error    cost = mean_squared_error(Y, predictions, sample_weight=None, multioutput='uniform_average')    if store is True:        self.cost_history.append(cost)    return cost

回答:

在你的线性回归实现中,不需要添加L2(或L1)正则化。

然而,在成本函数中添加L2正则化项相较于没有正则化项的线性回归有优势。最重要的是,正则化项有助于减少模型过拟合,并提高模型的泛化能力。带有L2正则化的线性回归通常被称为“岭回归”。

除了岭回归,带有L1正则化的线性回归被称为套索回归。如果你使用套索回归构建回归模型,你的模型将是稀疏模型。因此,套索回归也可以用于特征选择。

祝你好运!

Related Posts

L1-L2正则化的不同系数

我想对网络的权重同时应用L1和L2正则化。然而,我找不…

使用scikit-learn的无监督方法将列表分类成不同组别,有没有办法?

我有一系列实例,每个实例都有一份列表,代表它所遵循的不…

f1_score metric in lightgbm

我想使用自定义指标f1_score来训练一个lgb模型…

通过相关系数矩阵进行特征选择

我在测试不同的算法时,如逻辑回归、高斯朴素贝叶斯、随机…

可以将机器学习库用于流式输入和输出吗?

已关闭。此问题需要更加聚焦。目前不接受回答。 想要改进…

在TensorFlow中,queue.dequeue_up_to()方法的用途是什么?

我对这个方法感到非常困惑,特别是当我发现这个令人费解的…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注