这个问题看似奇怪,让我通过例子来解释一下。
- 我们训练了一个特定的分类模型,用于判断图像中是否包含人。
- 模型训练完成后,我们使用一张新图像进行预测。
- 预测结果显示,图像中包含人的概率为94%。
因此,我能说,对于图像可能包含人的情况,置信水平是94%吗?
回答:
你的第三项解释不正确。模型返回的“人”类别的归一化得分为0.94。虽然这个得分与我们对“概率”和“置信度”的认知有一定的相关性,但不要将它与这两者混淆。这是一个方便的度量标准,具有一些总体有用的特性,但它并不是精确到两位小数的准确预测。
当然,可能确实存在模型,其预测结果是一个准确的数字。例如,你在538
上找到的RealOdds
模型就是按照这个标准构建和测试的。然而,这是一个长达十多年的有针对性的努力;你日常使用的深度学习模型并没有达到同样的标准……除非你努力调整它,使该数字的准确性成为训练的一部分(将其纳入误差函数)。
你可以进行一个简单的(尽管数据量大)的实验:收集所有预测结果并进行分箱;比如,每个箱子范围为0.1,共10个箱子。现在,如果这个“预测”确实是一个概率,那么你的0.6-0.7箱子应该在65%的时间内正确识别出人。将其与真实情况进行对比:该箱子是否有65%正确,35%错误?差异是否在预期范围内:对这10个类别中的每一个都这样做,并对其运行你喜欢的适用统计措施。
我预计这将使你相信推理得分既不是预测也不是置信度。然而,我也希望这能给你一些未来工作的想法。