我在TensorFlow中实现了一个自定义的二元交叉熵损失函数。为了测试这个函数,我将其与TensorFlow中的内置二元交叉熵损失函数进行了比较。但是,在两种情况下我得到了非常不同的结果。我无法理解这种行为。
def custom_loss(eps,w1,w2): def loss(y_true, y_pred): ans = -1*(w1*y_true*tf.log(y_pred+eps) + w2*(1-y_true)*tf.log(y_pred+eps)) return ans return loss
我将eps设置为1e-6,w1=1,w2=1。当使用我的损失函数实现时,损失值迅速下降到很小的值。而使用TensorFlow的内置损失函数时,损失值则是稳步下降的。
编辑:以下是输出结果:
1: 使用自定义实现:
1/650 […………………………] – ETA: 46:37 – loss: 0.8810 – acc: 0.50
2/650 […………………………] – ETA: 41:27 – loss: 0.4405 – acc: 0.40
3/650 […………………………] – ETA: 39:38 – loss: 0.2937 – acc: 0.41
4/650 […………………………] – ETA: 38:44 – loss: 0.2203 – acc: 0.45
5/650 […………………………] – ETA: 38:13 – loss: 0.1762 – acc: 0.46
6/650 […………………………] – ETA: 37:47 – loss: 0.1468 – acc: 0.42
7/650 […………………………] – ETA: 37:29 – loss: 0.1259 – acc: 0
- 使用内置损失函数,eps=1e-7。
1/650 […………………………] – ETA: 48:15 – loss: 2.4260 – acc: 0.31
2/650 […………………………] – ETA: 42:09 – loss: 3.1842 – acc: 0.46
3/650 […………………………] – ETA: 40:10 – loss: 3.4615 – acc: 0.47
4/650 […………………………] – ETA: 39:06 – loss: 3.9737 – acc: 0.45
5/650 […………………………] – ETA: 38:28 – loss: 4.5173 – acc: 0.47
6/650 […………………………] – ETA: 37:58 – loss: 5.1865 – acc: 0.45
7/650 […………………………] – ETA: 37:41 – loss: 5.8239 – acc: 0.43
8/650 […………………………] – ETA: 37:24 – loss: 5.6979 – acc: 0.46
9/650 […………………………] – ETA: 37:12 – loss: 5.5973 – acc: 0.47
输入是来自MURA数据集的图像。为了保持测试的一致性,相同的图像在两种测试中都使用了。
回答:
你的实现中有一个小错误。
你有:
ans = -1*(w1*y_true*tf.log(y_pred+eps) + w2*(1-y_true)*tf.log(y_pred + eps))
而我认为你想要的是:
ans = -1*(w1*y_true*tf.log(y_pred+eps) + w2*(1-y_true)*tf.log(1 - y_pred + eps))
通常我们还需要对这个损失取平均值,因此我们的实现应该是:
def custom_loss(eps,w1,w2): def loss(y_true, y_pred): ans = -1*(w1*y_true*tf.log(y_pred+eps) + w2*(1-y_true)*tf.log(1-y_pred+eps)) return tf.reduce_mean(ans) return loss
现在我们可以将其与现成的实现进行测试:
y_true = tf.constant([0.1, 0.2])y_pred = tf.constant([0.11, 0.19])custom_loss(y_true, y_pred) # == 0.41316tf.keras.losses.binary_crossentropy(y_true, y_pred) # == 0.41317
我们发现结果匹配到许多小数位(我无法解释这个微小的差异 – 可能是不同的epsilon值? – 但我认为这么小的差异是可以忽略的)