我在Python 3.8.5上使用xgboost成功运行了一个机器学习算法,但对结果的解释遇到了困难。
输出/目标是二元的,即死亡或未死亡。
我和我的受众都熟悉R语言中的glm
所提供的比值比,我相信xgboost应该能以某种方式显示这类信息,但我找不到具体的方法。
我的第一反应是查看xgboost
的predict_proba
输出
但当我这样做时,得到的结果是
>>> deceased.pp.view()array([[0.5828363 , 0.4171637 ], [0.89795643, 0.10204358], [0.5828363 , 0.4171637 ], [0.89795643, 0.10204358]], dtype=float32)
我假设这些是公式1/(1-p)中的p,用于计算每个输入项(如sex
和age
)的比值比。
我在这个网站上找到了一个类似的问题,但答案对我没有帮助:
xgboost predict_proba : How to do the mapping between the probabilities and the labels
因此,根据那里的回答,我使用.classes_
得到了这个
>>> deceased.xg_clf.classes_array([False, True])
事实上,我甚至不确定xgboost能否提供类似glm的比值比,最接近的似乎是feature_importances。
然而,特征重要性并不能提供与比值比相同的信息。
但.classes_
并没有告诉我如何找出哪些输入类别(例如age
或sex
)具有什么样的概率。
我如何将classes_
与输入类别联系起来?如果这不正确或不可能,还有其他什么方法可以计算xgboost中每个输入变量的比值比?
回答:
同意,xgboost提供类似比值比的东西确实不太合适。你有没有看过其他形式的模型解释性方法,这些方法更适合像xgboost这样复杂的模型?例如,shap
是一个可以提供类似分析的库,但更适合这些类型的模型。