根据scikit-learn的文档
sklearn.model_selection.cross_val_score(estimator, X, y=None,groups=None, scoring=None, cv=None, n_jobs=1, verbose=0,fit_params=None, pre_dispatch=‘2*n_jobs’)
X和y
X : array-like 用于拟合的数据。可以是列表或数组等形式。
y : array-like, 可选, 默认: None 在监督学习的情况下,用于尝试预测的目标变量。
我想知道[X,y]是否是X_train和y_train,还是[X,y]应该使用整个数据集。在Kaggle的一些笔记本中,有人使用整个数据集,而其他人则使用X_train和y_train。
据我所知,交叉验证只是评估模型,并显示你是否过拟合/欠拟合数据(它实际上并不训练模型)。因此,在我看来,数据越多,性能就越好,所以我会使用整个数据集。
你怎么看?
回答:
模型的性能
取决于数据的分割方式,有时模型没有能力泛化。
因此,这就是我们需要交叉验证的原因。
交叉验证
是评估模型的重要步骤。它最大化了用于训练模型的数据量,因为在训练过程中,模型不仅在所有可用数据上进行训练,还在这些数据上进行测试。
我想知道[X,y]是否是X_train和y_train,还是[X,y]应该使用整个数据集。
[X, y]
应该使用整个数据集,因为交叉验证会在内部将数据分割成训练
数据和测试
数据。
假设你使用5折交叉验证(cv = 5)。
我们首先将数据集分为五组或折。然后,我们将第一折作为测试集,剩下的四折用于拟合模型,在测试集上进行预测,并计算感兴趣的度量指标。
接下来,我们将第二折作为测试集,在剩余数据上拟合模型,在测试集上进行预测,并计算感兴趣的度量指标。
默认情况下,scikit-learn的cross_val_score()
函数使用R^2
分数作为回归的度量指标。
R^2
分数被称为判定系数。