在使用Scikit-learn进行网格搜索时的模型帮助

作为安然项目的一部分,构建了附件中的模型,以下是步骤摘要,

下面的模型给出高度完美的分数

cv = StratifiedShuffleSplit(n_splits = 100, test_size = 0.2, random_state = 42)gcv = GridSearchCV(pipe, clf_params,cv=cv)gcv.fit(features,labels) ---> with the full datasetfor train_ind, test_ind in cv.split(features,labels):    x_train, x_test = features[train_ind], features[test_ind]    y_train, y_test = labels[train_ind],labels[test_ind]    gcv.best_estimator_.predict(x_test)

下面的模型给出更合理但较低的分数

cv = StratifiedShuffleSplit(n_splits = 100, test_size = 0.2, random_state = 42)gcv = GridSearchCV(pipe, clf_params,cv=cv)gcv.fit(features,labels) ---> with the full datasetfor train_ind, test_ind in cv.split(features,labels):     x_train, x_test = features[train_ind], features[test_ind]     y_train, y_test = labels[train_ind],labels[test_ind]     gcv.best_estimator_.fit(x_train,y_train)     gcv.best_estimator_.predict(x_test)
  1. 使用Kbest来找出分数并对特征进行排序,尝试高分和低分的组合。

  2. 使用带有StratifiedShuffle的GridSearch的SVM

  3. 使用best_estimator_进行预测并计算精度和召回率。

问题是估计器输出了完美的分数,在某些情况下是1

但是当我重新拟合最佳分类器到训练数据上然后运行测试时,它给出了合理的分数。

我的疑问/问题是,网格搜索在使用我们发送给它的Shuffle split对象进行分割后,到底对测试数据做了什么。我假设它不会在测试数据上进行任何拟合,如果这是真的,那么当我使用相同的测试数据进行预测时,不应该得到这么高的分数,对吗?因为我使用了random_state值,shufflesplit应该为网格拟合和预测创建了相同的副本。

那么,使用相同的Shufflesplit两次是否有问题?


回答:

基本上,网格搜索会:

  • 尝试你的参数网格中的每一种组合
  • 对于每一种组合,它将进行K折交叉验证
  • 选择最佳的可用选项。

所以你的第二种情况是正确的。否则,你实际上是在预测你已经训练过的数据(而在第二种选项中则不是这样,你只保留了来自网格搜索的最佳参数)

Related Posts

L1-L2正则化的不同系数

我想对网络的权重同时应用L1和L2正则化。然而,我找不…

使用scikit-learn的无监督方法将列表分类成不同组别,有没有办法?

我有一系列实例,每个实例都有一份列表,代表它所遵循的不…

f1_score metric in lightgbm

我想使用自定义指标f1_score来训练一个lgb模型…

通过相关系数矩阵进行特征选择

我在测试不同的算法时,如逻辑回归、高斯朴素贝叶斯、随机…

可以将机器学习库用于流式输入和输出吗?

已关闭。此问题需要更加聚焦。目前不接受回答。 想要改进…

在TensorFlow中,queue.dequeue_up_to()方法的用途是什么?

我对这个方法感到非常困惑,特别是当我发现这个令人费解的…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注