鉴于我们可以在LightGBM中使用自定义度量,并在训练过程中通过参数’feval’来调用它。对于给定的度量,我们可以在参数字典中定义它,如metric:(l1, l2)。我的问题是如何同时调用多个自定义度量?我无法使用feval=(my_metric1, my_metric2)来获得结果。
回答:
params = {}params['learning_rate'] = 0.003params['boosting_type'] = 'goss'params['objective'] = 'multiclassova'params['metric'] = ['multi_error', 'multi_logloss']params['sub_feature'] = 0.8params['num_leaves'] = 15params['min_data'] = 600params['tree_learner'] = 'voting'params['bagging_freq'] = 3params['num_class'] = 3params['max_depth'] = -1params['max_bin'] = 512params['verbose'] = -1params['is_unbalance'] = Trueevals_result = {}aa = lgb.train(params, d_train, valid_sets=[d_train, d_dev], evals_result=evals_result, num_boost_round=4500, feature_name=f_names, verbose_eval=10, categorical_feature = f_names, learning_rates=lambda iter: (1 / (1 + decay_rate * iter)) * params['learning_rate'])
让我们讨论一下我分享的代码。d_train是我的训练集。d_dev是我的验证集(我还有一个不同的测试集)。evals_result将记录每轮迭代的multi_error和multi_logloss作为列表。verbose_eval = 10将使LightGBM每10次迭代打印一次训练集和验证集的multi_error和multi_logloss。如果你想将multi_error和multi_logloss绘制成图表:
lgb.plot_metric(evals_result, metric='multi_error')plt.show()lgb.plot_metric(evals_result, metric='multi_logloss')plt.show()
你可以从LightGBM的文档中找到其他有用的功能。如果你找不到你需要的,可以去查看XGBoost的文档,这是一个简单的技巧。如果还有什么遗漏,请随时提出更多问题。