我正在进行一些文档分类任务,目前SVM在基于TF*IDF特征向量上表现良好。我想加入一些非词频基础的新特征(例如文档长度),看看这些新特征是否能提高分类性能。我有以下几个问题:
- 我可以简单地将新特征与旧的基于词频的特征连接起来,并在这种异构特征空间上训练SVM吗?
- 如果不行,是否应该使用多核学习,通过在每个子特征空间上训练一个核,并使用线性插值将它们结合起来?(我们还没有在scikit-learn中实现MKL,对吗?)
- 或者我应该转向其他能够很好处理异构特征的学习器,比如最大熵和决策树?
提前感谢您的宝贵建议!
回答:
1) 我可以简单地将新特征与旧的基于词频的特征连接起来,并在这种异构特征空间上训练SVM吗?
由于您标记了scikit-learn
:是的,您可以,并且您可以使用FeatureUnion
来完成这个任务。
2) 如果不行,是否应该使用多核学习,通过在每个子特征空间上训练一个核,并使用线性插值将它们结合起来?(我们还没有在scikit-learn中实现MKL,对吗?)
线性SVM是这类任务的标准模型。核方法对于现实世界的文本分类来说太慢了(除了可能使用像LaSVM这样的训练算法,但这在scikit-learn中没有实现)。
3) 或者我应该转向其他能够很好处理异构特征的学习器,比如最大熵和决策树?
SVM处理异构特征的能力与最大熵/逻辑回归一样好。在这两种情况下,您确实必须输入缩放后的数据,例如使用MinMaxScaler
。请注意,scikit-learn的TfidfTransformer
默认生成归一化向量,因此您不需要缩放其输出,只需缩放其他特征即可。