在自定义估计器中,输出层没有使用激活函数。
logits = tf.layers.dense(net, params['n_classes'], activation=None)
然后使用sparse_softmax_cross_entropy
来计算损失
loss = tf.losses.sparse_softmax_cross_entropy(labels=labels, logits=logits)
问题
- 一般来说,输出层也应该有激活函数吗?
sparse_softmax_cross_entropy
在计算损失时,是否意味着使用softmax作为输出层的激活函数?
回答:
直接计算softmax和基于它的交叉熵可能会在数值上不稳定。这就是为什么建议输出层不使用激活函数(通常分类任务会使用tf.nn.softmax
)。相反,Tensorflow提供了如sparse_softmax_cross_entropy
这样的损失函数,这些函数会在内部以数值稳定的方式应用softmax,然后基于此计算交叉熵。也就是说,你应该提供没有自己应用softmax的模型输出(通常称为logits)。
例如,在softmax操作的API文档中,你通常可以找到这样的段落:
警告:此操作期望未缩放的logits,因为它会在内部对logits进行softmax以提高效率。不要用softmax的输出调用此操作,否则会产生错误的结果。