我正在尝试理解cross_val_score()的使用。我了解它的工作原理和目的。让我们看一个简单的例子
reg = LinearRegression()cv_scores = cross_val_score(reg, X_train, y_train, cv=5)cv_scores = cross_val_score(reg, X_train, y_train, cv=10)
假设我分别在cv=5和cv=10时得到平均得分为0.91和0.84。我如何使用这些信息来拟合我的测试数据?
我能想到的一种方法是使用最佳的CV值,即在这种情况下是5,在GridSearchCV中使用,并拟合训练数据和预测测试数据。这是正确的吗?如果是的话,能否在不使用GridSearchCV的情况下完成这个任务?
回答:
你需要明白的是,cv参数并不指你的模型,而是指你将如何进行交叉验证。在这种情况下,你是在比较5折和10折交叉验证。
请记住,你进行交叉验证的目的是估计将你的方法应用于一般人群时的误差。在最小二乘线性回归的情况下,留一法交叉验证误差在渐进上将是偏差+方差最小的CV。然而,在实践中,差异不会太大,这主要在小样本量时才重要。
那么,为什么你需要“测试误差”的估计?因为当你解决大多数模型时,你试图最小化的正是应用于训练数据时的误差函数,所以如果你不小心,并且你的模型过于复杂,你会在训练数据上得到很好的结果,但在人群中却不然。CV的目的是确保这种情况不会发生。在线性回归中,通常你通过改变特征数量(前向选择,或使用类似lasso的方法,如果你不介意在偏差误差上付出一些代价),并固定cv=5(或10,在大多数情况下并不重要)来进行CV。