假设我有以下两组类别和一个包含目标名称的变量:
spam = ["blue", "white", "blue", "yellow", "red"]flagged = ["blue", "white", "yellow", "blue", "red"]target_names = ["blue", "white", "yellow", "red"]
当我使用confusion_matrix函数如下时,结果如下:
from sklearn.metrics import confusion_matrixconfusion_matrix(spam, flagged, labels=target_names)[[1 0 1 0] [0 1 0 0] [1 0 0 0] [0 0 0 1]]
然而,当我给labels
参数指定只想要’blue’的指标时,我得到了这样的结果:
confusion_matrix(spam, flagged, labels=["blue"])array([[1]])
只有一个数字,我无法计算准确率、精确率、召回率等。我在这里做错了什么?填入黄色、白色或蓝色会得到0、1和1的结果。
回答:
然而,当我给
labels
参数指定只想要’blue’的指标时
它并不是这样工作的。
在像你这样的多类别设置中,精确率和召回率是从整个混淆矩阵中针对每个类别计算的。
我在另一个回答中详细解释了原理和计算方法;这里是如何应用到你的情况中,对于你自己的混淆矩阵cm
来说:
现在,根据精确率和召回率的定义,我们有:
precision = TP/(TP+FP)recall = TP/(TP+FN)
对于你的例子,结果如下:
precision# array([ 0.5, 1. , 0. , 1. ])recall# array([ 0.5, 1. , 0. , 1. ])
也就是说,对于你的’blue’类,你得到了50%的精确率和召回率。
这里精确率和召回率碰巧相同,纯粹是巧合,因为FP和FN数组碰巧相同;尝试使用不同的预测来获得一种感觉…