我逐渐从R
转向Python
来进行一些预测建模。我想知道使用交叉验证进行超参数优化并将训练好的模型应用于新实例的最佳流程是什么。
下面你会看到我使用随机森林的一个快速示例。我想知道这个方法是否可行,以及你会添加或删除什么内容?
#import data setstrain_df = pd.read_csv('../input/train.csv') test_df = pd.read_csv('../input/test.csv')#get the predictors onlyX_train = train_df.drop(["ID", "target"], axis=1) y_train = np.log1p(train_df["target"].values) X_test = test_df.drop(["ID"], axis=1)#grid to do the random searchfrom sklearn.model_selection import RandomizedSearchCV n_estimators = [int(x) for x in np.linspace(start = 200, stop = 2000, num = 10)]max_features = ['auto', 'sqrt']max_depth = [int(x) for x in np.linspace(10, 110, num = 11)] max_depth.append(None)min_samples_split = [2, 5, 10]min_samples_leaf = [1, 2, 4]bootstrap = [True, False] # Create the random gridrandom_grid = {'n_estimators': n_estimators, 'max_features': max_features, 'max_depth': max_depth, 'min_samples_split': min_samples_split, 'min_samples_leaf': min_samples_leaf, 'bootstrap': bootstrap}#Create the model to tunerf = RandomForestRegressor()rf_random= RandomizedSearchCV(estimator = rf, param_distributions = random_grid, n_iter = 100, cv = 10, verbose=2, random_state=42, n_jobs =10)#fit the random search modelrf_random.fit(X_train, y_train) #get the best estimatorbest_random = rf_random.best_estimator_ # train again with the best parameters on the whole training data?best_random.fit(X_train,y_train)#apply the best predictor to the test setpred_test_rf = np.expm1(best_random.predict(X_test))
-
.best_estimator_
是否使用网格搜索中找到的最佳参数来实例化模型? -
如果是的话,我是否需要像上面那样在整个训练数据上重新训练,还是它已经重新训练过了?
-
我想知道这种方法是否可行,或者使用sklearn在Python中进行这种操作的最佳实践是什么?
回答:
1) 是的,它是使用rf_random
中的best_params_
初始化的估计器
2) 不,它已经在整个数据上训练过了,不需要执行best_random.fit(X_train,y_train)
RandomizedSearchCV有一个参数'refit'
,默认值为True
:
refit : boolean, or string default=True Refit an estimator using the best found parameters on the whole dataset.
3) 你的方法看起来不错。这是标准做法。其他事情可能取决于各种因素,如数据类型、数据大小、使用的算法(估计器)、探索可能性的时间等。但这部分内容最适合在https://stats.stackexchange.com上讨论。