CNN: 为什么使用logits还是softmax层来衡量准确性没有区别?

在衡量CNN的准确性时,我明白应该使用softmax层的输出(预测标签)与目标标签进行比较。但即使我将logits(据我理解,是最后一个全连接层的输出)与目标标签进行比较,我也得到了几乎相同的准确性。以下是我代码的相关部分:

matches = tf.equal(tf.argmax(y_pred,1),tf.argmax(y,1))   acc = tf.reduce_mean(tf.cast(matches,tf.float32))

其中y_pred是最终的普通全连接层的输出,没有使用任何激活函数(仅矩阵乘法和偏置加法w*x+b)

y_pred = normal_full_layer(second_hidden_layer,6)

6是因为我有6个类别。

这是使用y_pred计算的准确性图表:仅使用Logits

准确率约为96%

现在,如果我对y_pred应用softmax激活函数来计算准确性,称之为pred_softmax,我得到的准确性几乎相同

pred_softmax = tf.nn.softmax(y_pred).

准确率图表使用softmax:enter image description here


回答:

实际上,准确性应该是完全相同的。对logits数组取argmax应该与对该数组的softmax取argmax得到相同的结果。这是因为softmax函数以严格递增的方式将较大的logits映射到更接近1的值。

softmax函数接受一组输出(一个数组)y并将其映射到exp(y)/sum(exp(y))y[i]越大,softmax(y[i])的值就越大,因此必须有argmax(y[i])==argmax(softmax(y[i]))

Related Posts

L1-L2正则化的不同系数

我想对网络的权重同时应用L1和L2正则化。然而,我找不…

使用scikit-learn的无监督方法将列表分类成不同组别,有没有办法?

我有一系列实例,每个实例都有一份列表,代表它所遵循的不…

f1_score metric in lightgbm

我想使用自定义指标f1_score来训练一个lgb模型…

通过相关系数矩阵进行特征选择

我在测试不同的算法时,如逻辑回归、高斯朴素贝叶斯、随机…

可以将机器学习库用于流式输入和输出吗?

已关闭。此问题需要更加聚焦。目前不接受回答。 想要改进…

在TensorFlow中,queue.dequeue_up_to()方法的用途是什么?

我对这个方法感到非常困惑,特别是当我发现这个令人费解的…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注