逻辑回归中正则化强度的倒数是什么?它应该如何影响我的代码?

我在使用 scikit learn 中的 sklearn.linear_model.LogisticRegression 来运行逻辑回归。

C : float, optional (default=1.0) Inverse of regularization strength;    must be a positive float. Like in support vector machines, smaller    values specify stronger regularization.

这里的 C 在简单术语中是什么意思?什么是正则化强度?


回答:

正则化 是通过对参数值的增加施加惩罚来减少过拟合。当你训练一个模型,如逻辑回归模型时,你是在选择最适合数据的参数。这意味着最小化模型对给定数据的预测与实际依赖变量之间的误差。

问题出现在你有许多参数(许多独立变量)但数据量不足的情况下。在这种情况下,模型往往会根据数据中的特异性来调整参数值——这意味着它几乎完美地拟合你的数据。然而,因为这些特异性不会出现在你将来看到的数据中,你的模型预测效果会很差。

为了解决这个问题,除了已经讨论过的最小化误差外,你还需要增加一个最小化的函数,该函数对参数的大值进行惩罚。最常用的函数是 λΣθj2,即某个常数 λ 乘以参数值 θj2 的平方和。λ 值越大,参数值的增加就越不可能仅仅是为了调整数据中的小扰动。然而,在你的情况下,你不是指定 λ,而是指定 C=1/λ。

Related Posts

L1-L2正则化的不同系数

我想对网络的权重同时应用L1和L2正则化。然而,我找不…

使用scikit-learn的无监督方法将列表分类成不同组别,有没有办法?

我有一系列实例,每个实例都有一份列表,代表它所遵循的不…

f1_score metric in lightgbm

我想使用自定义指标f1_score来训练一个lgb模型…

通过相关系数矩阵进行特征选择

我在测试不同的算法时,如逻辑回归、高斯朴素贝叶斯、随机…

可以将机器学习库用于流式输入和输出吗?

已关闭。此问题需要更加聚焦。目前不接受回答。 想要改进…

在TensorFlow中,queue.dequeue_up_to()方法的用途是什么?

我对这个方法感到非常困惑,特别是当我发现这个令人费解的…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注