我在进行一个GCMLE实验,其中在一个model_fn()
内有三个学习目标(假设为任务A、任务B和任务C)。这三个目标的输入是相同的(读取一段文本),我希望生成三个独立的预测。然而,对于任务C,我希望能够适当地屏蔽批次中大约20%的样本。正确的做法是否只是将我想屏蔽的样本权重设为零?请考虑以下损失函数..
lossA = tf.reduce_mean(tf.losses.sparse_softmax_cross_entropy( labels=labelsA, logits=logitsA))lossB = tf.reduce_mean(tf.losses.sparse_softmax_cross_entropy( labels=labelsB, logits=logitsB))mask_weights = tf.to_float(tf.equal(x, y)) # 如果x等于y返回1,如果x不等于y返回0lossC = tf.reduce_mean(tf.losses.sparse_softmax_cross_entropy( labels=labelsC, logits=logitsC, weights=mask_weights))loss = lossA + lossB + lossC
我尝试做的基本上是屏蔽批次中x不等于y的任何样本,这样这些样本在与任务C相关时不会对模型进行梯度更新。这是否接近预期效果?有没有更好的实现方法?
我意识到我可以将这些分成不同的实验,但我希望能够共享嵌入层,并且有一个单一的图形,可以上传到GCMLE预测服务中。
回答:
总结评论——如帖子中所述,对损失函数应用二进制掩码似乎是屏蔽损失函数的适当方法。然而,由于减少了C的有效批次大小,可能会有其他意想不到的后果,这可能会使这种方法不被鼓励。