最大熵分类中的“共识”

假设我们有三个类别:A、B和C,我们使用标准的最大熵分类器对文档’d’进行分类,并得出以下概率:

P(d, A) = 0.50P(d, B) = 0.25P(d, C) = 0.25

我觉得这与另一组概率有很大的不同:

P(d, A) = 0.50P(d, B) = 0.49P(d, C) = 0.01

有没有办法评估这两组概率之间的差异呢?


回答:

你所面临的问题通常被称为分类器之间的“共识”。由于多标签最大熵分类可以被视为N个独立的分类器,你可以将其视为一组模型在为不同类别“投票”。

现在,有许多计算这种“共识”的方法,包括:

  • “简单”的计算边际 – “获胜”类别的概率与第二高的概率之间的差异 – 边际越大,分类越有信心
  • 熵 – 结果概率分布的熵越小,决策越有信心
  • 涉及KL散度等的其他方法

一般来说,你应该考虑检测结果分布的“均匀性”(意味着决策信心较低)或“尖峰性”(表示分类信心较高)的方法。

Related Posts

L1-L2正则化的不同系数

我想对网络的权重同时应用L1和L2正则化。然而,我找不…

使用scikit-learn的无监督方法将列表分类成不同组别,有没有办法?

我有一系列实例,每个实例都有一份列表,代表它所遵循的不…

f1_score metric in lightgbm

我想使用自定义指标f1_score来训练一个lgb模型…

通过相关系数矩阵进行特征选择

我在测试不同的算法时,如逻辑回归、高斯朴素贝叶斯、随机…

可以将机器学习库用于流式输入和输出吗?

已关闭。此问题需要更加聚焦。目前不接受回答。 想要改进…

在TensorFlow中,queue.dequeue_up_to()方法的用途是什么?

我对这个方法感到非常困惑,特别是当我发现这个令人费解的…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注