我正在尝试使用下面的自定义损失函数进行对象分割:
def chamfer_loss_value(y_true, y_pred): # flatten the batch y_true_f = K.batch_flatten(y_true) y_pred_f = K.batch_flatten(y_pred) # ========== # get chamfer distance sum // error here y_pred_mask_f = K.cast(K.greater_equal(y_pred_f,0.5), dtype='float32') finalChamferDistanceSum = K.sum(y_pred_mask_f * y_true_f, axis=1, keepdims=True) return K.mean(finalChamferDistanceSum)def chamfer_loss(y_true, y_pred): return chamfer_loss_value(y_true, y_pred)
y_pred_f
是我的 U-Net 的结果。y_true_f
是对真实标签掩码 x
进行欧几里得距离变换的结果,如下所示:
distTrans = ndimage.distance_transform_edt(1 - x)
为了计算香农距离,你需要将预测的图像(理想情况下,是一个包含 1 和 0 的掩码)与真实距离变换相乘,然后对所有像素进行求和。为了实现这一点,我需要通过阈值处理 y_pred_f
来获得掩码 y_pred_mask_f
,然后与 y_true_f
相乘,并对所有像素进行求和。
y_pred_f
提供了一个 [0,1] 的连续值范围,我在评估 y_true_mask_f
时得到了 None type not supported
的错误。我知道损失函数必须是可微的,而 greater_equal
和 cast
不是。但是,在 Keras 中有办法绕过这个问题吗?也许可以使用 TensorFlow 中的一些变通方法?
回答:
嗯,这有点棘手。你遇到错误的原因是你的损失和网络之间没有连续依赖。为了计算损失相对于网络的梯度,你的损失必须计算指示器的梯度,如果你的输出大于 0.5
(因为这是你的最终损失值与网络输出 y_pred
之间的唯一联系)。这是不可能的,因为这个指示器部分是常数且不连续的。
可能的解决方案 – 平滑你的指示器:
def chamfer_loss_value(y_true, y_pred): # flatten the batch y_true_f = K.batch_flatten(y_true) y_pred_f = K.batch_flatten(y_pred) y_pred_mask_f = K.sigmoid(y_pred_f - 0.5) finalChamferDistanceSum = K.sum(y_pred_mask_f * y_true_f, axis=1, keepdims=True) return K.mean(finalChamferDistanceSum)
因为 sigmoid
是阶跃函数的连续版本。如果你的输出来自 sigmoid
,你可以简单地使用 y_pred_f
而不是 y_pred_mask_f
。