我想使用Sklearn的GradientBoostingRegressor类来预测回归问题中目标变量的值。我的特征类型混杂——有些是连续数值型,有些是布尔型,有两个是分类型,还有一个是连续数值的向量。我选择使用梯度提升树是因为数据类型混杂。一个特征向量的例子如下:
[‘Category1’, 41.93655, -87.642079, 0, 0, <1×822 sparse matrix of type ” with 4 stored elements in Compressed Sparse Row format>, ‘mobile_app’, ‘NA’]
然而,当我尝试使用fit()训练GradientBoostingRegressor时,我得到了一个错误提示:
ValueError: could not convert string to float: Category1
这个特征的值是通过枚举实现的。我只有一个方法:
def enum(self, **enums): return type('Enum', (), enums)
然后当我创建我的类别时,我这样做:
categories = self.enum(Category1='Category1', Category2='Category2', ...)
我猜问题在于它仍然返回实际值为字符串。但如果我将值改为0, 1, 2等,那会使某些类别与其他类别“更接近”,而它们应该与所有其他类别等距。
那么这个对象是否真正处理混合类型的数据,还是所有数据都必须是数值型的?如果必须全部是数值型的,曾经使用这个对象处理分类数据的人是否能提供一些关于如何最好地表示类别的建议?任何帮助都将不胜感激
回答:
每个特征必须是数值型的。由于梯度提升基于决策树,而决策树是基于特征分割而不是距离工作的,只要你适当设置max_depth
参数(通过网格搜索来确保),“0, 1, 2等”的表示方式实际上应该可以很好地工作。