我曾在某处读到,对于非线性核的SVM决策值无法进行解释,因此只有符号才有意义。然而,我看到几篇文章提到对决策值设置阈值(虽然是使用SVMlight)[1] [2]。所以我并不确定对决策值设置阈值是否合理,但我对结果还是很好奇的。
LibSVM的Python接口在调用predict()时会直接返回决策值和预测目标,那么使用scikit-learn是否有办法做到这一点?我已经使用svm.SVC()训练了一个二元分类SVM模型,但现在卡在这里了。
在源代码中,我找到了被注释为“(libsvm name for this is predict_values)”的svm.libsvm.decision_function()函数。然后我看到了svm.SVC.decision_function()并检查了它的源代码:
dec_func = libsvm.decision_function( X, self.support_, self.support_vectors_, self.n_support_, self.dual_coef_, self._intercept_, self._label, self.probA_, self.probB_, svm_type=LIBSVM_IMPL.index(self._impl), kernel=kernel, degree=self.degree, cache_size=self.cache_size, coef0=self.coef0, gamma=self._gamma) # 在二元情况下,我们需要翻转coef、intercept和 # 决策函数的符号。 if self._impl in ['c_svc', 'nu_svc'] and len(self.classes_) == 2: return -dec_func
看起来它在执行libsvm的predict等效操作,但如果它是等效的,为什么要改变决策值的符号呢?
另外,是否有任何方法可以使用这个值或任何预测输出(除了概率估计和Platt方法,我的模型在计算概率估计时表现不佳)来计算SVM决策的置信值?还是如所争论的,对于非线性核的决策值,只有符号才有意义?
[1] http://www.plosone.org/article/info%3Adoi%2F10.1371%2Fjournal.pone.0039195#pone.0039195-Teng1
[2] http://link.springer.com/article/10.1007%2Fs00726-011-1100-2
回答:
看起来它在执行libsvm的predict等效操作,但如果它是等效的,为什么要改变决策值的符号呢?
这些只是关于类符号内部表示的实现技巧。没有什么真正需要担心的。
sklearn的decision_function
是SVM的超平面w
与你的数据x
的内积值(可能在核诱导空间中),所以你可以使用它,进行移位或分析。然而,它的解释非常抽象,因为在RBF核的情况下,它只是中心在x
的正态分布与方差等于1/(2*gamma)
的乘积的积分,以及中心在支持向量上的加权正态分布的加权和(且具有相同的方差),其中权重是alpha
系数。
另外,是否有任何方法可以使用这个值或任何预测输出来计算SVM决策的置信值
Platt的缩放并不是因为有什么“游说团体”强迫我们这样做——这只是估计SVM置信度的“正确”方法。然而,如果你对“概率意义”上的置信度不感兴趣,而是想要任何可以定性比较的值(哪个点更有信心),那么决策函数可以用来做到这一点。它大致是点在核空间中的图像与分离超平面之间的距离(最多到归一化常数,即w
的范数)。所以确实,
abs(decision_function(x1)) < abs(decision_function(x2)) =>
x1
的置信度低于x2
。
简而言之,decision_function
值越大,点在其超平面中的位置就越“深”。