在SHAP的TreeExplainer中包含训练数据时,scikit-learn的GBT回归器的expected_value
会有所不同。
可复现的示例(在Google Colab中运行):
from sklearn.datasets import make_regressionfrom sklearn.model_selection import train_test_splitfrom sklearn.ensemble import GradientBoostingRegressorimport numpy as npimport shapshap.__version__# 0.37.0X, y = make_regression(n_samples=1000, n_features=10, random_state=0)X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)gbt = GradientBoostingRegressor(random_state=0)gbt.fit(X_train, y_train)# 平均预测值:mean_pred_gbt = np.mean(gbt.predict(X_train))mean_pred_gbt# -11.534353657511172# 不包含数据的解释器gbt_explainer = shap.TreeExplainer(gbt)gbt_explainer.expected_value# array([-11.53435366])np.isclose(mean_pred_gbt, gbt_explainer.expected_value)# array([ True])# 包含训练数据的解释器gbt_data_explainer = shap.TreeExplainer(model=gbt, data=X_train) # 指定feature_perturbation不会改变结果gbt_data_explainer.expected_value# -23.564797322079635
因此,包含训练数据时得到的预期值gbt_data_explainer.expected_value
与不提供数据时计算的预期值(gbt_explainer.expected_value
)有很大不同。
两种方法在使用(显然不同的)各自的shap_values
时都是加法且一致的:
np.abs(gbt_explainer.expected_value + gbt_explainer.shap_values(X_train).sum(1) - gbt.predict(X_train)).max() < 1e-4# Truenp.abs(gbt_data_explainer.expected_value + gbt_data_explainer.shap_values(X_train).sum(1) - gbt.predict(X_train)).max() < 1e-4# True
但我想知道为什么它们不提供相同的expected_value
,以及为什么gbt_data_explainer.expected_value
与预测的平均值差异如此之大。
我在这里错过了什么?
回答:
显然,当传递data
时,shap
会将数据子集减少到100行,然后通过树运行这些行以重置每个节点的样本计数。因此,报告的-23.5...
是这100行的平均模型输出值。
data
被传递给Independent
掩码器,该掩码器执行子抽样:
https://github.com/slundberg/shap/blob/v0.37.0/shap/explainers/_tree.py#L94
https://github.com/slundberg/shap/blob/v0.37.0/shap/explainers/_explainer.py#L68
https://github.com/slundberg/shap/blob/v0.37.0/shap/maskers/_tabular.py#L216
运行
from shap import maskersanother_gbt_explainer = shap.TreeExplainer( gbt, data=maskers.Independent(X_train, max_samples=800), feature_perturbation="tree_path_dependent")another_gbt_explainer.expected_value
可以得到
-11.534353657511172