在一次作业中,我需要编写一个单层神经网络。在大部分内容上我认为我已经做得不错了,但是当我尝试使用 tf.nn.softmax_cross_entropy_with_logits 方法时,遇到了一个错误,提示“ValueError: Both labels and logits must be provided。”这显然意味着我需要同时提供 labels 和 logits,而我目前的代码中只提供了 logits,所以我明白问题出在哪里。但我不明白的是,labels 是什么,以及在这种情况下如何使用它们?请注意,我在 tensorflow 和神经网络方面还是相当新手和缺乏经验的。谢谢!
回答:
在监督学习中,你需要提供标签和训练数据,softmax_cross_entropy_with_logits 计算 logits 和 labels 之间的 softmax 交叉熵。这有助于给出数据属于特定类别的概率。你可以在这里阅读更多相关信息 https://www.tensorflow.org/api_docs/python/tf/nn/softmax_cross_entropy_with_logits
h_fc1_drop = tf.nn.dropout(h_fc1, keep_prob)
W_fc2 = weight_variable([1024, 10])
b_fc2 = bias_variable([10])
y_conv = tf.matmul(h_fc1_drop, W_fc2) + b_fc2
cross_entropy = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(labels=y_, logits=y_conv))
我提供了一段来自 tensorflow 教程的代码片段,其中使用了softmax_cross_entropy_with_logits
。这里y_
是一个占位符,用于输入标签。另外,softmax_cross_entropy_with_logits
目前已被弃用。