我是一个初学者,正在按照Aurelien Geron的书中关于使用SKLEARN进行机器学习的教程进行学习。当我用以下代码测试我的预测时:
from sklearn.metrics import mean_squared_errorlistings_predictions = lin_reg.predict(listings_prepared)lin_mse = mean_squared_error(listings_labels, listings_predictions)lin_rmse = np.sqrt(lin_mse)lin_rmse
我得到了51.96
。(看起来非常合理)
现在,当我对相同的方法进行交叉验证时,我得到了超乎想象的值:
lin_scores = cross_val_score(lin_reg, listings_prepared, listings_labels, scoring="neg_mean_squared_error", cv=10)lin_rmse_scores = np.sqrt(-lin_scores)display_scores(lin_rmse_scores) Scores: [5.33624445e+01 2.96290932e+10 5.25981399e+01 5.29672973e+01 1.26397404e+11 5.17644346e+01 5.10301124e+01 5.45672660e+01 6.69753606e+11 4.29844291e+11] Mean: 125562439481.52774 Standard deviation: 221930379288.67526
您能建议我从哪里开始寻找问题的根源吗?为什么回归结果只是“有点偏差”,而相同方法的交叉验证结果却高出数十亿倍?
回答:
重新格式化后的交叉验证分数是:53.3624445 29629093200.0 52.5981399 52.9672973 126397404000.0 51.7644346 51.0301124 54.567266 669753606000.0 429844291000.0
正如BlackBear所说,这表明在你的四个CV分区中可能存在一些异常值。这些是交叉验证每次运行时对测试集的误差分数,因此如果其中一个分区存在异常值,这意味着模型在其训练集中没有这个例子作为学习对象。当你不使用CV而使用所有数据进行训练时,模型就有了这些异常值的例子来学习。