scikit-learn的GridSearchCV的best_score_是如何计算的?

我一直在试图弄清楚GridSearchCV的best_score_参数是如何计算的(换句话说,它的含义是什么)。文档中提到:

最佳估计器在留出数据上的得分。

因此,我尝试将其翻译成我能理解的内容,并计算了每个k折的实际“y”值和预测的y值的r2_score,结果却不同(使用了以下代码):

test_pred = np.zeros(y.shape) * np.nan for train_ind, test_ind in kfold:    clf.best_estimator_.fit(X[train_ind, :], y[train_ind])    test_pred[test_ind] = clf.best_estimator_.predict(X[test_ind])r2_test = r2_score(y, test_pred)

我到处寻找关于best_score_更有意义的解释,但一无所获。有人能解释一下吗?

谢谢


回答:

它是最佳估计器的平均交叉验证得分。让我们创建一些数据并固定交叉验证的数据划分。

>>> y = linspace(-5, 5, 200)>>> X = (y + np.random.randn(200)).reshape(-1, 1)>>> threefold = list(KFold(len(y)))

现在运行cross_val_scoreGridSearchCV,都使用这些固定的折叠。

>>> cross_val_score(LinearRegression(), X, y, cv=threefold)array([-0.86060164,  0.2035956 , -0.81309259])>>> gs = GridSearchCV(LinearRegression(), {}, cv=threefold, verbose=3).fit(X, y) Fitting 3 folds for each of 1 candidates, totalling 3 fits[CV]  ................................................................[CV] ...................................... , score=-0.860602 -   0.0s[Parallel(n_jobs=1)]: Done   1 jobs       | elapsed:    0.0s[CV]  ................................................................[CV] ....................................... , score=0.203596 -   0.0s[CV]  ................................................................[CV] ...................................... , score=-0.813093 -   0.0s[Parallel(n_jobs=1)]: Done   3 out of   3 | elapsed:    0.0s finished

请注意GridSearchCV输出中的score=-0.860602score=0.203596score=-0.813093;这些值正是cross_val_score返回的值。

请注意,“平均”实际上是对折叠的宏平均。可以使用GridSearchCViid参数来获得对样本的微平均。

Related Posts

L1-L2正则化的不同系数

我想对网络的权重同时应用L1和L2正则化。然而,我找不…

使用scikit-learn的无监督方法将列表分类成不同组别,有没有办法?

我有一系列实例,每个实例都有一份列表,代表它所遵循的不…

f1_score metric in lightgbm

我想使用自定义指标f1_score来训练一个lgb模型…

通过相关系数矩阵进行特征选择

我在测试不同的算法时,如逻辑回归、高斯朴素贝叶斯、随机…

可以将机器学习库用于流式输入和输出吗?

已关闭。此问题需要更加聚焦。目前不接受回答。 想要改进…

在TensorFlow中,queue.dequeue_up_to()方法的用途是什么?

我对这个方法感到非常困惑,特别是当我发现这个令人费解的…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注