sklearn.feature_selection中除Chi-2之外的特征选择度量

我在进行一些文本分类任务时尝试使用sklearn.svm.SVC。尽管在使用SVM建模前进行特征选择通常是值得商榷的,因为性能通常在使用全部特征时达到峰值,但从学术角度来看,观察不同特征选择方法如何对特征进行不同排序仍然很有趣。

经过一番搜索,我发现sklearn中可用的特征选择度量非常有限,仅有Chi-2。我想知道其他常用的度量,如信息增益(IG)和贝叶斯网络评分(BNS),是否已在sklearn(或其他地方)实现,以便我可以直接在sklearn.feature_selection.SelectKBest()中作为评分函数使用?


回答:

信息增益尚未实现,但我认为@某人希望在未来的某个时候将其纳入。我对BNS不太了解。

如果你愿意,请随时贡献代码。这里是贡献指南:

http://scikit-learn.org/dev/developers/index.html

Related Posts

Keras Dense层输入未被展平

这是我的测试代码: from keras import…

无法将分类变量输入随机森林

我有10个分类变量和3个数值变量。我在分割后直接将它们…

如何在Keras中对每个输出应用Sigmoid函数?

这是我代码的一部分。 model = Sequenti…

如何选择类概率的最佳阈值?

我的神经网络输出是一个用于多标签分类的预测类概率表: …

在Keras中使用深度学习得到不同的结果

我按照一个教程使用Keras中的深度神经网络进行文本分…

‘MatMul’操作的输入’b’类型为float32,与参数’a’的类型float64不匹配

我写了一个简单的TensorFlow代码,但不断遇到T…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注