在分类问题中,当类别不平衡时,为什么F1分数比准确率更适合?

我理解,如果假阳性/假阴性对确定一个好的分类器至关重要,那么F1分数更为重要。我在一篇文章中读到“F1分数是精确率和召回率的加权平均值;因此,该分数同时考虑了假阳性和假阴性。从直观上理解它不如准确率那么容易,但F1通常比准确率更有用,特别是当你有不均匀的类别分布时”。F1分数更适合处理不均衡或不平衡的类别的说法也出现在其他网站上,但这种情况的原因是什么呢?


回答:

假设你有类别A=1000和类别B=100,这里当你使用准确率作为评估指标时,

Accuracy = Correct Predictions for class A  + Class B / Total Predictions

假设在1000个类别A中,正确预测了950个,而在100个类别B中,正确预测了10个。那么根据准确率公式,

Accuracy = 950 (class A correct predictions) + 10 (class B correct predictions) / 1100Accuracy  = 0.8727272727272727 (87%)

在这种不平衡的情况下,我们得到了87%的准确率,看起来不错,但如果你注意到,对于类别B,我们只正确预测了10条记录中的100条,这意味着我们的模型无法预测类别B,但准确率指标显示我们的模型非常好(87%准确率)。因此,对于这种情况,我们使用F1分数来处理不平衡问题的评估。

F1 = 2 * (precision * recall) / (precision + recall)

F1分数考虑了精确率和召回率,因此在处理不平衡数据时,使用F1分数来评估模型非常重要。否则,如果你仍然想使用准确率作为矩阵,可以使用按类别的准确率,如类别A的准确率和类别B的准确率。

Related Posts

使用LSTM在Python中预测未来值

这段代码可以预测指定股票的当前日期之前的值,但不能预测…

如何在gensim的word2vec模型中查找双词组的相似性

我有一个word2vec模型,假设我使用的是googl…

dask_xgboost.predict 可以工作但无法显示 – 数据必须是一维的

我试图使用 XGBoost 创建模型。 看起来我成功地…

ML Tuning – Cross Validation in Spark

我在https://spark.apache.org/…

如何在React JS中使用fetch从REST API获取预测

我正在开发一个应用程序,其中Flask REST AP…

如何分析ML.NET中多类分类预测得分数组?

我在ML.NET中创建了一个多类分类项目。该项目可以对…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注