我一直在研究多任务模型,使用 VGG16 且没有使用 dropout 层。我发现验证准确率高于训练准确率,且验证损失低于训练损失。
我似乎找不到模型中发生这种情况的原因。
以下是训练图表:
数据:
我使用了(随机打乱的图像)70% 用于训练,15% 用于验证,15% 用于测试,15% 测试数据的结果如下:
你认为这些结果好得难以置信吗?
回答:
一开始,是的,但到最后你可以看到它们开始互换位置。
在训练结束时,你接近了过拟合点(如果验证损失开始增加或验证准确率开始下降,那么你就达到了过拟合)。
但在开始时,这种行为可能是因为训练和测试数据之间存在一些不平衡。也许验证数据库中的例子更简单,或者存在类别不平衡,或者有更多的空值等。