文本的逐点互信息

我想知道如何计算用于文本分类的逐点互信息。更具体地说,我想要对推文进行分类。我有一组标注过的推文数据集,并且我为每个类别准备了一个词典,词典里是属于该类别的词。基于这些信息,如何计算每条推文在每个类别上的逐点互信息,从而将推文分类到这些类别之一呢?


回答:

逐点互信息是衡量一个特征(在你的例子中是一个词)与一个类别(分类)之间关联性的度量,而不是文档(推文)与类别之间的关联性。公式可以在维基百科上找到:

                  P(x, y)pmi(x ,y) = log ------------                   P(x)P(y)

在该公式中,X是模拟词出现的随机变量,而Y是模拟类别出现的随机变量。对于给定的词x和给定的类别y,你可以使用逐点互信息来决定一个特征是否具有信息性,并据此进行特征选择。减少特征通常能提高分类算法的性能并显著加快其速度。然而,分类步骤是独立的——逐点互信息仅有助于你选择更好的特征来输入到你的学习算法中。


编辑:我在最初的帖子中没有提到的一点是,逐点互信息对词频敏感。让我们重写公式为

                  P(x, y)             P(x|y)pmi(x ,y) = log ------------ = log ------------                   P(x)P(y)             P(x)

xy完全相关时,P(x|y) = P(y|x) = 1,因此pmi(x,y) = 1/P(x)。较不常见的x(词)将比常见的x拥有更高的逐点互信息得分,即使两者都与y完全相关。

Related Posts

L1-L2正则化的不同系数

我想对网络的权重同时应用L1和L2正则化。然而,我找不…

使用scikit-learn的无监督方法将列表分类成不同组别,有没有办法?

我有一系列实例,每个实例都有一份列表,代表它所遵循的不…

f1_score metric in lightgbm

我想使用自定义指标f1_score来训练一个lgb模型…

通过相关系数矩阵进行特征选择

我在测试不同的算法时,如逻辑回归、高斯朴素贝叶斯、随机…

可以将机器学习库用于流式输入和输出吗?

已关闭。此问题需要更加聚焦。目前不接受回答。 想要改进…

在TensorFlow中,queue.dequeue_up_to()方法的用途是什么?

我对这个方法感到非常困惑,特别是当我发现这个令人费解的…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注