我正在尝试使用逻辑回归解决一个多类分类问题。我的数据集有3个不同的类,每个数据点只属于一个类。这里是样本训练数据;
这里的第一列是我添加的作为偏置项的全1向量。目标列已使用标签二值化的概念进行了二值化处理,如sickit-learn中所述
然后我得到了如下目标;
array([[1, 0, 0], [1, 0, 0], [0, 1, 0], [1, 0, 0], [1, 0, 0]])
接下来,我使用一对多的概念进行训练,即每次训练一个分类器。样本代码;
for i in range(label_train.shape[1]): clf = LogisticRegression(random_state=0,multi_class='ovr', solver='liblinear',fit_intercept=True).\ fit(train_data_copy, label_train[:,i]) #print(clf.coef_.shape)
如您所见,我总共训练了3个分类器,每个标签一个。我在这里有两个问题;
第一个问题: 根据sickit-learn的文档,
multi_class{‘auto’, ‘ovr’, ‘multinomial’}, default=’auto’如果选择的选项是‘ovr’,那么每个标签都会拟合一个二元问题。对于‘multinomial’,最小化的损失是跨整个概率分布的多项式损失,即使数据是二元的。当solver=‘liblinear’时,‘multinomial’不可用。‘auto’在数据为二元或solver=‘liblinear’时选择‘ovr’,否则选择‘multinomial’。
我的问题是,由于我选择了liblinear
作为求解器(是一对多的问题),选择multi_class
为auto
还是ovr
是否有区别。
第二个问题,关于截距(或偏置)项。文档中说如果fit_intercept=True
,则会在决策函数中添加一个偏置项。但我注意到,当我没有在数据矩阵中添加全1向量时,尽管fit_intercept=True
,系数向量theta中的参数数量与特征数量相同。我的问题是,我们是否需要在数据矩阵中添加全1向量,同时启用fit_intercept
,以便在决策函数中添加偏置项。
回答:
- 没有区别; 如您可能在这里看到的,无论选择
multi_class='auto'
还是multi_class='ovr'
,当solver='liblinear'
时都会导致相同的结果。 - 在
solver='liblinear'
的情况下,会使用一个默认的等于1的偏置项,并通过intercept_scaling
属性附加到X上(这仅在fit_intercept=True
时有用),如您在这里看到的。拟合后的偏置(维度(n_classes,)
)将由intercept_
返回(如果fit_intercept=False
则为零值)。拟合的系数由coef_
返回(维度(n_classes, n_features)
而不是(n_classes, n_features + 1)
– 分割在这里这里完成)。
这里是一个例子,考虑Iris数据集(有3个类和4个特征):
from sklearn.datasets import load_irisfrom sklearn.linear_model import LogisticRegressionX, y = load_iris(return_X_y=True)clf = LogisticRegression(random_state=0, fit_intercept=True, multi_class='ovr', solver='liblinear')clf.fit(X, y)clf.intercept_, clf.coef_################################(array([ 0.26421853, 1.09392467, -1.21470917]), array([[ 0.41021713, 1.46416217, -2.26003266, -1.02103509], [ 0.4275087 , -1.61211605, 0.5758173 , -1.40617325], [-1.70751526, -1.53427768, 2.47096755, 2.55537041]]))