我一直在尝试调整sklearn的度量标准,尤其是平均精确度得分(average_precision_score)。然而,我在sklearn文档中只能找到一个使用支持向量机(SVM)计算平均精确度得分的示例。下面是代码片段以及文档链接供参考:
# 创建一个简单的分类器classifier = svm.LinearSVC(random_state=random_state)classifier.fit(X_train, y_train)y_score = classifier.decision_function(X_test)# 计算平均精确度得分from sklearn.metrics import average_precision_scoreaverage_precision = average_precision_score(y_test, y_score)
现在我的问题是,在上面的例子中,y_score是通过decision_function方法输出的(预测样本的置信度得分),而y_test是类别。对于随机森林来说,由于没有像SVM那样的decision_function方法,如何计算y_score呢?
我尝试过并且看到其他人使用predict(self, X)(预测X的类别)和predict_proba(self, X)(预测X的类别概率)这两种方法来计算平均精确度得分。我使用这两种方法的结果差异很大。使用predict(self, X)时,我的平均精确度得分为0.74,而使用predict_proba时,得分为0.94。我的y_test是类别标签,值为(1, 0)。我对哪种方法正确感到有些困惑。什么时候应该使用predict,什么时候应该使用predict_proba,以及为什么它们导致的平均精确度得分差异如此之大。任何帮助将不胜感激。
回答:
使用predict – 你预测的是标签(假设是0和1)使用predict_proba – 你得到的是某个样本的两个标签的概率(结果[0.1, 0.9] => 这个样本最可能是1而不是0)。
平均精确度(AP)是一个顺序度量,因此预测的顺序是重要的。所以如果真实标签向量是[1, 0, 1],而预测向量(通过概率)是[0.9, 0.7, 0.8] – AP会给你1.0,即使第二个样本的概率为1是0.7。
因此,如果你的模型犯了错误(错过了类别),仍然有机会让顺序更加平滑。因此,对于像AP或ROC AUC这样的顺序度量,最好使用概率而不是直接预测的标签。