我正在使用 eli5
包中的 show_prediction
函数来理解我的 XGBoost 分类器是如何做出预测的。不知为何,我似乎得到的是回归得分,而不是我的模型的概率。
以下是一个使用公共数据集的完全可复制的示例。
from sklearn.datasets import load_breast_cancerfrom xgboost import XGBClassifierfrom sklearn.model_selection import train_test_splitfrom eli5 import show_prediction# 加载数据集data = load_breast_cancer()# 组织我们的数据label_names = data['target_names']labels = data['target']feature_names = data['feature_names']features = data['data']# 分割数据train, test, train_labels, test_labels = train_test_split( features, labels, test_size=0.33, random_state=42)# 定义模型xgb_model = XGBClassifier( n_jobs=16, eval_metric='auc')# 训练模型xgb_model.fit( train, train_labels)show_prediction(xgb_model.get_booster(), test[0], show_feature_values=True, feature_names=feature_names)
这给我带来了以下结果。请注意得分为 3.7,这显然不是概率。
然而,官方 eli5 的文档正确地显示了概率。
缺少的概率似乎与我使用 xgb_model.get_booster()
有关。看起来官方文档并没有使用它,而是直接传递了模型,但我这样做时会得到 TypeError: 'str' object is not callable
,所以这似乎不是一个选项。
我还担心 eli5 没有通过遍历 xgboost 树来解释预测。看起来我得到的“得分”实际上只是所有特征贡献的总和,就像如果 eli5 没有实际遍历树而是拟合了一个线性模型那样。这是真的吗?我怎样才能让 eli5 也遍历树呢?
回答:
我自己解决了这个问题。根据这个 GitHub 问题,eli5 只支持旧版本的 XGBoost(<=0.6)。我使用的是 XGBoost 版本 0.80 和 eli5 版本 0.8。
发布该问题的解决方案如下:
然后将我问题中的代码片段的最后一行替换为:
show_prediction(xgb_model, test[0], show_feature_values=True, feature_names=feature_names)
解决了我的问题。