我的训练数据集有9行(样本)和705列(特征+目标)(Train_5, y_train_5)
我的测试数据集有17行和705列(我知道这种分割是不正确的)(Test_5, y_test_5)
首先我这样做:
clf = GradientBoostingClassifier ()fit = clf.fit(Train_5, y_train_5)y_predicted2 = clf.predict(Test_5)c_report = classification_report(y_test_5, y_predicted2)print('\nClassification report:\n', c_report)Classification report: precision recall f1-score support 0 0.13 1.00 0.24 2 1 1.00 0.13 0.24 15
这个结果是正常的。但是当我想绘制ROC曲线时,它给了我完整的曲线,并且AUC值是1!
y_predicted = clf.predict_proba(Test_5)[:, 1]false_positive, true_positive, _ = roc_curve(y_test_5, y_predicted)auc = roc_auc_score(y_test_5, y_predicted)auc1
这是ROC曲线。
这显然是错误的!我的意思是,如何用9个样本训练的分类器能得到这样的结果?我做错了什么?
回答:
这不一定是错误的。我们必须问自己轴线的含义是什么。它们是真阳性率和真阴性率。也就是说,正确和错误地标记为“阳性类”的项目比例。
如果你的9个样本中有8个是真正的阳性,最后一个是真正的阴性。这是可能的。想象一下使用一个滑块,将左边的所有东西标记为阳性,右边的所有东西标记为阴性。想想你的真阳性率和真阴性率会是什么样的(为了简化,我将使用5个总数)
|+|+|+|+|-|^
^在这里,左边什么都没有,所以没有东西被正确或错误地标记为阳性。因此两个轴都是0,让我们把它向右移动1个单位:
|+|+|+|+|-| ^
^在这里,左边的一切都是阳性并且被正确分类,我们没有错误的阳性。这在线上的每个点都会是这种情况
|+|+|+|+|-| ^
^同样的解释在这里也适用。让我们再移动一次滑块:
|+|+|+|+|-| ^
^在这一点上,实际上是阳性的一切都被正确地标记为阳性,而一切(即那一件)是阴性的被错误地标记为阳性(因此是假阳性)。这就是为什么这些曲线总是从对角线开始和结束的原因。
我的意思是你也可能只是弄错了什么…