我在使用scikit learn的线性SVM(LinearSVC)进行二分类问题。我知道LinearSVC可以提供预测标签和决策分数,但我希望得到概率估计(对标签的信心)。我希望继续使用LinearSVC,因为它的速度比使用线性核的sklearn.svm.SVC快。使用逻辑函数将决策分数转换为概率是否合理?
import sklearn.svm as suppmach# 拟合模型:svmmodel=suppmach.LinearSVC(penalty='l1',C=1)predicted_test= svmmodel.predict(x_test)predicted_test_scores= svmmodel.decision_function(x_test)
我想确认是否可以简单地使用[1 / (1 + exp(-x)) ]来获得概率估计,其中x是决策分数。
另外,有没有其他高效的分类器选项可以用来实现这个目标?
谢谢。
回答:
我查看了sklearn.svm.*家族中的API。以下所有模型,例如,
- sklearn.svm.SVC
- sklearn.svm.NuSVC
- sklearn.svm.SVR
- sklearn.svm.NuSVR
都有一个共同的接口,该接口为模型提供了一个
probability: boolean, optional (default=False)
参数。如果将此参数设置为True,libsvm将基于Platt Scaling的思想,在SVM的输出之上训练一个概率转换模型。转换的形式类似于您指出的逻辑函数,但在后处理步骤中学习了两个特定的常数A
和B
。有关更多详细信息,请参见此stackoverflow帖子。
我实际上不知道为什么这种后处理对LinearSVC不可用。否则,您只需调用predict_proba(X)
即可获得概率估计。
当然,如果您只是应用一个简单的逻辑变换,它的表现不会像Platt Scaling这样的校准方法那样好。如果您能理解Platt Scaling的底层算法,您可能会编写自己的代码或为scikit-learn的svm家族做出贡献。:) 当然,您也可以使用上述支持predict_proba
的四种SVM变体。