Keras – 自定义损失函数 – 香农距离

我正在尝试使用下面的自定义损失函数进行对象分割:

def chamfer_loss_value(y_true, y_pred):               # flatten the batch     y_true_f = K.batch_flatten(y_true)    y_pred_f = K.batch_flatten(y_pred)    # ==========    # get chamfer distance sum    // error here    y_pred_mask_f = K.cast(K.greater_equal(y_pred_f,0.5), dtype='float32')    finalChamferDistanceSum = K.sum(y_pred_mask_f * y_true_f, axis=1, keepdims=True)      return K.mean(finalChamferDistanceSum)def chamfer_loss(y_true, y_pred):       return chamfer_loss_value(y_true, y_pred)

y_pred_f 是我的 U-Net 的结果。y_true_f 是对真实标签掩码 x 进行欧几里得距离变换的结果,如下所示:

distTrans = ndimage.distance_transform_edt(1 - x)

为了计算香农距离,你需要将预测的图像(理想情况下,是一个包含 1 和 0 的掩码)与真实距离变换相乘,然后对所有像素进行求和。为了实现这一点,我需要通过阈值处理 y_pred_f 来获得掩码 y_pred_mask_f,然后与 y_true_f 相乘,并对所有像素进行求和。

y_pred_f 提供了一个 [0,1] 的连续值范围,我在评估 y_true_mask_f 时得到了 None type not supported 的错误。我知道损失函数必须是可微的,而 greater_equalcast 不是。但是,在 Keras 中有办法绕过这个问题吗?也许可以使用 TensorFlow 中的一些变通方法?


回答:

嗯,这有点棘手。你遇到错误的原因是你的损失和网络之间没有连续依赖。为了计算损失相对于网络的梯度,你的损失必须计算指示器的梯度,如果你的输出大于 0.5(因为这是你的最终损失值与网络输出 y_pred 之间的唯一联系)。这是不可能的,因为这个指示器部分是常数且不连续的。

可能的解决方案 – 平滑你的指示器:

def chamfer_loss_value(y_true, y_pred):               # flatten the batch     y_true_f = K.batch_flatten(y_true)    y_pred_f = K.batch_flatten(y_pred)    y_pred_mask_f = K.sigmoid(y_pred_f - 0.5)    finalChamferDistanceSum = K.sum(y_pred_mask_f * y_true_f, axis=1, keepdims=True)      return K.mean(finalChamferDistanceSum)

因为 sigmoid 是阶跃函数的连续版本。如果你的输出来自 sigmoid,你可以简单地使用 y_pred_f 而不是 y_pred_mask_f

Related Posts

L1-L2正则化的不同系数

我想对网络的权重同时应用L1和L2正则化。然而,我找不…

使用scikit-learn的无监督方法将列表分类成不同组别,有没有办法?

我有一系列实例,每个实例都有一份列表,代表它所遵循的不…

f1_score metric in lightgbm

我想使用自定义指标f1_score来训练一个lgb模型…

通过相关系数矩阵进行特征选择

我在测试不同的算法时,如逻辑回归、高斯朴素贝叶斯、随机…

可以将机器学习库用于流式输入和输出吗?

已关闭。此问题需要更加聚焦。目前不接受回答。 想要改进…

在TensorFlow中,queue.dequeue_up_to()方法的用途是什么?

我对这个方法感到非常困惑,特别是当我发现这个令人费解的…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注