我在尝试学习gridsearchCV的工作原理时,用K近邻算法进行了测试。当我设置n_neighbors = 9时,我的分类器得分为0.9122807017543859
但是当我使用gridsearchCV并在列表中设置n_neighbors = 9时,得分为0.8947368421052632。
可能的原因是什么?任何努力都是值得感谢的。这是我的代码
from sklearn import datasetsimport pandas as pdimport numpy as npfrom sklearn.model_selection import train_test_split as splitterimport pickle from sklearn.neighbors import KNeighborsClassifier from sklearn.linear_model import LogisticRegressionfrom sklearn.model_selection import GridSearchCV# Data pre-processing <-----------------------data = datasets.load_breast_cancer()p=dataadd=data.target.reshape(569,1) columns = np.append(data.feature_names, data.target_names[0], axis=None)data = np.append(data.data, add, axis=1) df = pd.DataFrame(data=data,columns=columns)X_train,X_test,y_train,y_test = splitter(p.data, p.target, test_size=0.3, random_state=12)gauss = KNeighborsClassifier(n_neighbors=9)param_grid={'n_neighbors':[1,2,3,4,5,6,7,8,9,11,12,13,10]}gausCV = GridSearchCV(KNeighborsClassifier(),param_grid,verbose=False)gauss.fit(X_train,y_train)gausCV.fit(X_train,y_train)print(gauss.score(X_test,y_test))print(gausCV.score(X_test,y_test))
这是我得到的结果
0.91228070175438590.8947368421052632
回答:
问题不在于邻居的数量,而在于“交叉验证”。GridSearchCV
过程不仅尝试了你在param_grid
中设置的所有值,还进行了一些数据操作:数据的“折叠”。这是为了通过多次重采样数据,使最终的分类器对新数据尽可能健壮。由于你在gauss
和gausCV
模型之间的得分非常接近,几乎可以肯定是抽取的数据影响了结果,但影响并不大。
这是一个很好的例子,说明仅仅接受得分最高的模型可能并不总是最佳路径:在其他条件相同的情况下,我更相信经过交叉验证后表现良好的模型,而不是没有经过交叉验证的模型。