CNN损失值卡在2.302(ln(10))

我在尝试使用神经网络来解决CIFAR-10数据集的问题时,遇到了一个非常奇怪的问题。我已经尝试了超过6种不同的CNN架构,并调整了许多不同的CNN超参数和全连接层的neurons数量,但所有尝试都失败了,损失值始终为2.302,对应的准确率为0.0625。这是为什么呢?是什么CNN或神经网络的特性导致了这种情况?我还尝试了dropout、l2_norm、不同的卷积核大小、不同的填充方式以及最大池化,但我无法理解为什么损失值会卡在一个如此奇怪的数字上?

我使用TensorFlow来实现这个模型,并且我尝试了带有softmax层的交叉熵损失,以及不带softmax层的稀疏交叉熵损失。神经网络的损失函数是否卡在一个平台期?


回答:

这看起来像是你不小心在网络的最后一层应用了非线性/激活函数。请记住,交叉熵的计算是基于0到1之间的值的。由于你在计算交叉熵之前通过应用softmax函数自动将输出“强制”到这个范围内,你应该只“应用”线性激活函数(实际上就是不添加任何激活函数)。

顺便说一下,2.302这个值并不是随机的。它实际上是当你假设所有10个类别(CIFAR-10)初始时具有相同的预期扩散概率0.1时,softmax损失的结果为-ln(0.1)。请查看Andrej Karpathy的解释:http://cs231n.github.io/neural-networks-3/

Related Posts

L1-L2正则化的不同系数

我想对网络的权重同时应用L1和L2正则化。然而,我找不…

使用scikit-learn的无监督方法将列表分类成不同组别,有没有办法?

我有一系列实例,每个实例都有一份列表,代表它所遵循的不…

f1_score metric in lightgbm

我想使用自定义指标f1_score来训练一个lgb模型…

通过相关系数矩阵进行特征选择

我在测试不同的算法时,如逻辑回归、高斯朴素贝叶斯、随机…

可以将机器学习库用于流式输入和输出吗?

已关闭。此问题需要更加聚焦。目前不接受回答。 想要改进…

在TensorFlow中,queue.dequeue_up_to()方法的用途是什么?

我对这个方法感到非常困惑,特别是当我发现这个令人费解的…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注