为什么微观精确度/召回率更适合处理类别不平衡问题?

我有三个类别。假设第一个类别的元素数量是30,第二个是30,第三个是1000。
某个算法给出了预测,并获得了以下错误矩阵(行是预测值,列是真实标签)。

[[  1   0  10] [ 29   2  10] [  0  28 980]]

从这个矩阵中可以看出,第三类别被很好地分类了,尽管其他类别几乎总是错误的。

结果是以下精确度和召回率:

Precision.  micro: 0.927  macro: 0.371Recall.  micro: 0.927  macro: 0.360

从官方文档和许多文章、问题(例如,来自 这里)中可以得知,当类别不平衡时,最好使用微观指标。尽管直觉上似乎在这种情况下,微观指标显示的度量值太好了,尽管有两个类别几乎没有被分类。


回答:

微观精确度/召回率并不“更适合”处理类别不平衡问题。

事实上,如果你查看结果,很明显,当你在不平衡数据集上有糟糕的预测时(在代表性较差的标签上结果很差),宏观精确度/召回率的值会非常小。

然而,微观精确度在计算时确实考虑了每个类别的元素数量。

例如,来自 sklearn 的微观和宏观 f1-score(精确度和召回率也是如此):

'micro':通过计算总的真阳性、假阴性和假阳性来全局计算指标。'macro':为每个标签计算指标,并找出它们的非加权平均值。这不考虑标签不平衡情况。

因此,当你在某个标签上表现不佳且该标签代表性较差时,宏观指标实际上会对你进行惩罚。

另一方面,微观平均则不会这样做,因为它是全局计算指标的。

例如,这意味着如果你在类别0中有很多样本,并且假设很多预测是正确的,而在类别1中样本较少但有很多错误预测,微观精确度/召回率可能会产生一个较高的数值,而宏观指标(精确度/召回率/f1-score)会因为在特定标签上的糟糕结果而惩罚(产生一个较小的数值)。

现在,这真的取决于你感兴趣的是什么。如果你希望全局获得好的结果,并且你不关心标签的分布,那么微观指标可能是合适的。

然而,我们通常关心数据集中代表性较差的类别的结果,因此尽管有微观指标,宏观指标的实用性更大。

Related Posts

使用LSTM在Python中预测未来值

这段代码可以预测指定股票的当前日期之前的值,但不能预测…

如何在gensim的word2vec模型中查找双词组的相似性

我有一个word2vec模型,假设我使用的是googl…

dask_xgboost.predict 可以工作但无法显示 – 数据必须是一维的

我试图使用 XGBoost 创建模型。 看起来我成功地…

ML Tuning – Cross Validation in Spark

我在https://spark.apache.org/…

如何在React JS中使用fetch从REST API获取预测

我正在开发一个应用程序,其中Flask REST AP…

如何分析ML.NET中多类分类预测得分数组?

我在ML.NET中创建了一个多类分类项目。该项目可以对…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注