从scikit-learn的文档这里或我的实验中可以看出,DecisionTreeClassifier的树结构都是二叉树。无论是使用gini还是entropy作为标准,每个DecisionTreeClassifier节点只能有0个、1个或2个子节点。
但从决策树介绍的幻灯片(第3页)来看,理论上的决策树节点可以有超过2个子节点。
所以我的问题是,为什么scikit-learn的DecisionTreeClassifier决策树结构仅为二叉树(每个DecisionTreeClassifier节点只能有1个或2个子节点)?我们能否为DecisionTreeClassifier获得具有超过2个子节点的树结构?
回答:
这是因为scikit-learn的方法是处理数值型特征,而不是分类型特征。当你处理数值型特征时,构建一个可以有任意数量阈值的良好分割规则是相对困难的(这需要产生超过2个子节点)。另一方面,对于分类型特征(在提供的幻灯片中使用),另一种可能的选择是拥有尽可能多的子节点,每个可能的值对应一个子节点。这两种方法都有其自身的问题(分类方法在可能的值很多时几乎无法处理,而数值方法需要特定的特征编码,如分类特征的一热编码,这实际上意味着你仍然可以表达相同的树,但不是直接有“物种”节点及其3个子节点[狗,猫,人],而是会有更深的树结构,决策为:[狗,非狗],[非狗但猫,非狗非猫但人])。
所以简短的回答是不,你无法用这个实现获得超过2个子节点的树结构,但这在一般情况下并不是真正的限制。