我在使用sklearn训练决策树分类器时,遇到了一个奇怪的情况。
决策树的score函数返回的准确率(0.88)比cross_val_score
(约0.84)的结果高很多。
根据文档,score函数也计算平均准确率。
两者都应用于测试数据集(87992个样本)。
交叉验证在子集上进行计算,结果略有不同是可以理解的,但现在差异相当大。
from sklearn.tree import DecisionTreeClassifier from sklearn.model_selection import cross_val_scoreclf_tree = DecisionTreeClassifier()clf_tree.fit(X_train, y_train)print('Accuracy: %f' % clf_tree.score(X_test, y_test))print((cross_val_score(clf_tree, X_test, y_test, cv=10, scoring='accuracy')))print(classification_report(clf_tree.predict(X_test), y_test))
输出:
Accuracy: 0.881262[0.84022727 0.83875 0.843164 0.84020911 0.84714172 0.83929992 0.83873167 0.8422548 0.84089101 0.84111831] precision recall f1-score support 0 0.89 0.88 0.88 44426 1 0.88 0.89 0.88 43566 micro avg 0.88 0.88 0.88 87992 macro avg 0.88 0.88 0.88 87992weighted avg 0.88 0.88 0.88 87992
这里到底发生了什么?感谢任何建议。
回答:
你对cross_val_score
的功能存在误解。
假设你有一个包含100行的数据集,并将其分为训练集(70%)和测试集(30%),那么你在代码的以下部分将使用70行进行训练,30行进行测试:
clf_tree = DecisionTreeClassifier()clf_tree.fit(X_train, y_train) print('Accuracy: %f' % clf_tree.score(X_test, y_test))
而在后面的代码中,你调用了:
print((cross_val_score(clf_tree, X_test, y_test, cv=10, scoring='accuracy')))
在这里,cross_val_score
会将你的30行测试数据分成10部分。然后它使用9部分进行训练,并用剩下的1部分测试这个完全重新训练的分类器。这个过程会重复,直到每个块都被测试过一次(共10次)。
因此,最终你的第一个分类器是用70%的数据训练的,而cross_val_score
中的10个分类器则是用27%的数据训练的。
在机器学习中,通常更多的数据会带来更好的结果。
为了说明这一点,在你的代码中,以下两行将执行完全相同的操作:
print((cross_val_score(clf_tree, X_test, y_test, cv=10, scoring='accuracy')))print((cross_val_score(DecisionTreeClassifier(), X_test, y_test, cv=10, scoring='accuracy')))