比较均方误差(MSE)损失和交叉熵损失在收敛性方面的区别

对于一个非常简单的分类问题,我的目标向量是[0,0,0,….0],预测向量是[0,0.1,0.2,….1],交叉熵损失和MSE损失哪一个收敛得更好/更快?当我绘制它们时,似乎MSE损失的误差更小。这是为什么呢?enter image description here

或者,例如,当我的目标是[1,1,1,1….1]时,我得到了以下结果:enter image description here


回答:

你听起来有点困惑…

  • 比较MSE与交叉熵损失的值,并说一个比另一个低,就像是比较苹果和橘子
  • MSE用于回归问题,而交叉熵损失用于分类问题;这些情境是互斥的,因此比较它们相应的损失度量值的数值是没有意义的
  • 当你的预测向量像[0,0.1,0.2,....1](即包含非整数成分)时,如你所说,这是一个回归(而不是分类)问题;在分类设置中,我们通常使用独热编码的目标向量,其中只有一个成分是1,其余为0
  • 目标向量为[1,1,1,1....1]的情况可能出现在回归设置中,或者在多标签多类分类中,即输出可能同时属于多个类别

除此之外,你选择的绘图方式,以预测的百分比(?)为横轴,这让我感到困惑——我在机器学习诊断中从未见过这样的图表,我不太确定它们到底代表什么,或者为什么它们可能有用…

如果你喜欢详细讨论分类设置中的交叉熵损失和准确性,你可以查看我这个回答

Related Posts

Keras Dense层输入未被展平

这是我的测试代码: from keras import…

无法将分类变量输入随机森林

我有10个分类变量和3个数值变量。我在分割后直接将它们…

如何在Keras中对每个输出应用Sigmoid函数?

这是我代码的一部分。 model = Sequenti…

如何选择类概率的最佳阈值?

我的神经网络输出是一个用于多标签分类的预测类概率表: …

在Keras中使用深度学习得到不同的结果

我按照一个教程使用Keras中的深度神经网络进行文本分…

‘MatMul’操作的输入’b’类型为float32,与参数’a’的类型float64不匹配

我写了一个简单的TensorFlow代码,但不断遇到T…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注