对于一个非常简单的分类问题,我的目标向量是[0,0,0,….0],预测向量是[0,0.1,0.2,….1],交叉熵损失和MSE损失哪一个收敛得更好/更快?当我绘制它们时,似乎MSE损失的误差更小。这是为什么呢?
或者,例如,当我的目标是[1,1,1,1….1]时,我得到了以下结果:
回答:
你听起来有点困惑…
- 比较MSE与交叉熵损失的值,并说一个比另一个低,就像是比较苹果和橘子
- MSE用于回归问题,而交叉熵损失用于分类问题;这些情境是互斥的,因此比较它们相应的损失度量值的数值是没有意义的
- 当你的预测向量像
[0,0.1,0.2,....1]
(即包含非整数成分)时,如你所说,这是一个回归(而不是分类)问题;在分类设置中,我们通常使用独热编码的目标向量,其中只有一个成分是1,其余为0 - 目标向量为
[1,1,1,1....1]
的情况可能出现在回归设置中,或者在多标签多类分类中,即输出可能同时属于多个类别
除此之外,你选择的绘图方式,以预测的百分比(?)为横轴,这让我感到困惑——我在机器学习诊断中从未见过这样的图表,我不太确定它们到底代表什么,或者为什么它们可能有用…
如果你喜欢详细讨论分类设置中的交叉熵损失和准确性,你可以查看我这个回答。