我目前正在运行一个多类Logitboost算法(文档),运行得很好。然而,当我尝试查看不同特征的重要性时,我得到了以下错误信息:
NotImplementedError: Feature importances is currently only implemented for binary classification tasks.
在查看Github代码时,我不太明白为什么还没有实现这个功能。有人知道有什么方法可以绕过这个问题,以便我可以绘制特征重要性图吗?还是说我只能等到Logitboost的新版本发布(鉴于上次更新已经是几个月前了,这似乎不太可能)。
我已经尝试修改Logitboost.py文件,但由于我的编程知识有限,这个过程相当繁琐。
提前感谢!
回答:
通过查看源代码,我们发现base_estimator
默认为DecisionTree
:
# The default regressor for LogitBoost is a decision stump_BASE_ESTIMATOR_DEFAULT = DecisionTreeRegressor(max_depth=1)
我们知道决策树确实有特征重要性,尽管这个版本似乎还没有为多类问题实现这种方法。然而,通过查看拟合分类器的结构,似乎可以相对简单地提出一些自定义的重要性指标。
让我们通过一个例子来看看,使用iris数据集:
如果你查看lg.estimators_
,你会发现结构是一个嵌套的已拟合决策树列表。我们可以做如下操作来获得整体重要性:
l_feat_imp = [sum(cls.feature_importances_ for cls in cls_list) for cls_list in lg.estimators_]imp = np.array(l_feat_imp).sum(0)# array([ 9., 19., 51., 71.])
也就是说,这是将每个特征对所有内部估计器列表的贡献求和,然后再次对求和的贡献进行求和。所以在这种情况下,我们可以这样做:
pd.Series(imp, index=load_iris().feature_names).sort_values(ascending=False).plot.bar()