在TensorFlow的文档中(softmax_cross_entropy_with_logits),他们提到”logits : 未缩放的对数概率”。什么是’对数概率’?首先,我理解'logits'
是'归一化前的输出'
或者'类别的得分'
。
logits = tf.matmul(X,W) + b
hypothesis = tf.nn.softmax(logits)
如果我通过tf.matmul(X,W) + b
得到[1.5, 2.4, 0.7]
,那么[1.5, 2.4, 0.7]
就是logits(得分)
,这是未缩放的。我能理解到这一步。但是,我不明白为什么[1.5, 2.4, 0.7]
被称为'对数概率'
。
回答:
感谢大家!
我找到了这个帖子,它提供了接近我问题的答案。