在衡量CNN的准确性时,我明白应该使用softmax层的输出(预测标签)与目标标签进行比较。但即使我将logits(据我理解,是最后一个全连接层的输出)与目标标签进行比较,我也得到了几乎相同的准确性。以下是我代码的相关部分:
matches = tf.equal(tf.argmax(y_pred,1),tf.argmax(y,1)) acc = tf.reduce_mean(tf.cast(matches,tf.float32))
其中y_pred
是最终的普通全连接层的输出,没有使用任何激活函数(仅矩阵乘法和偏置加法w*x+b)
y_pred = normal_full_layer(second_hidden_layer,6)
6是因为我有6个类别。
准确率约为96%
现在,如果我对y_pred
应用softmax激活函数来计算准确性,称之为pred_softmax
,我得到的准确性几乎相同
pred_softmax = tf.nn.softmax(y_pred).
回答:
实际上,准确性应该是完全相同的。对logits数组取argmax应该与对该数组的softmax取argmax得到相同的结果。这是因为softmax函数以严格递增的方式将较大的logits映射到更接近1的值。
softmax函数接受一组输出(一个数组)y
并将其映射到exp(y)/sum(exp(y))
,y[i]
越大,softmax(y[i]
)的值就越大,因此必须有argmax(y[i])==argmax(softmax(y[i]))