我在学习逻辑回归,想要计算在通过梯度下降法最小化时交叉熵损失函数的值,但是当我使用TensorFlow的sigmoid_cross_entropy_with_logits函数时,得到的结果与我自己编写的表达式不同。
这里是一个例子:
import numpy as npimport tensorflow as tfpred = np.array([[0.2],[0.3],[0.4]])test_y = np.array([[0.5],[0.6],[0.7]])print(tf.nn.sigmoid_cross_entropy_with_logits(logits = pred, labels = test_y))print(-test_y * tf.math.log(pred) - (1-test_y) * tf.math.log(1-pred))
输出结果:
tf.Tensor([[0.69813887] [0.67435524] [0.63301525]], shape=(3, 1), dtype=float64)tf.Tensor([[0.91629073] [0.86505366] [0.7946512 ]], shape=(3, 1), dtype=float64)
谁能解释一下这是为什么?我查看了TensorFlow关于这个函数的文档,似乎它应该和我自己的表达式做同样的事情。
回答:
你忘记在计算交叉熵损失之前对你的预测pred
应用sigmoid函数了:
-test_y * tf.math.log(tf.math.sigmoid(pred)) - (1-test_y) * tf.math.log(1-tf.math.sigmoid(pred))
tf.Tensor([[0.69813887] [0.67435524] [0.63301525]], shape=(3, 1), dtype=float64)