我在进行一些文本分类任务时尝试使用卡方特征选择。我了解到卡方检验用于检查两个分类变量之间的依赖性,因此如果我们对二元文本分类问题使用二元词袋向量表示进行卡方特征选择,每个(特征,类别)对的卡方检验将是一个非常直接的自由度为1的卡方检验。
这个分数可以用来从X中选择具有最高χ²(卡方)统计值的n_features特征,X必须包含布尔值或频率(例如,文档分类中的术语计数),相对于类别而言。
在我看来,我们也可以对DF(词频)向量表示进行卡方特征选择。我的第一个问题是:sklearn如何将整数值特征离散化为分类特征?
我的第二个问题与第一个问题类似。从这里的演示代码来看: http://scikit-learn.sourceforge.net/dev/auto_examples/document_classification_20newsgroups.html
在我看来,我们也可以对TF*IDF向量表示进行卡方特征选择。sklearn如何对实值特征进行卡方特征选择?
提前感谢您的宝贵建议!
回答:
卡方特征选择代码从其输入X
(特征值)和y
(类别标签)构建一个列联表。每个条目i,j对应于某个特征i和某个类别j,并保存属于类别j的所有样本中第i个特征值的总和。然后,它计算卡方检验统计量与基于类别经验分布(仅是y
中它们的相对频率)和特征值均匀分布产生的预期频率进行比较。
当特征值是频率(例如术语的频率)时,这是有效的,因为总和将是该特征(术语)在该类别中的总频率。没有进行离散化处理。
当值是tf-idf值时,这在实践中也运作良好,因为那些只是加权/缩放的频率。