我在机器学习领域还是新手。我尝试使用lgb.cv()的5折交叉验证来训练我的模型,但我不知道如何将这些结果应用到lgb.train()中。也就是说,我如何在’lgb_clf’中使用’cv results’?我无法理解cv()和train()之间的区别。
lgbm_params = { 'objective': 'binary', 'metric': 'auc', 'is_unbalance': 'true', 'boosting': 'gbdt', 'num_leaves': 31, 'feature_fraction': 0.5, 'bagging_fraction': 0.5, 'bagging_freq': 20, 'learning_rate': 0.05, 'verbose': 0}metric = 'auc'cv_folds = 5num_rounds = 5000lgtrain = lgb.Dataset(train, label=label)lgvalid = lgb.Dataset(test,label=label)cv = lgb.cv(lgbm_params, lgtrain, num_rounds, nfold=cv_folds, metrics={metric}, early_stopping_rounds=100)lgb_clf = lgb.train(lgbm_params, lgtrain,num_rounds, early_stopping_rounds=100, valid_sets=[lgtrain,lgvalid])
回答:
问题在于你想用交叉验证做什么。如果你只是想为预定义的超参数集估计泛化误差,你可以直接使用lgb.cv
的输出结果,而不需要再次训练模型。另一方面,如果你在寻找最佳超参数值,你需要在参数空间中探测多个点,计算每个点的交叉验证分数,并选择得分最高的点。然后,你会使用这些找到的超参数重新训练模型。