Weighted Training Examples in Tensorflow

在训练神经网络时,给定一组训练样本,我们希望根据不同样本的“价值”(例如有效性或置信度)来调整其在训练中的权重。我们为每个样本分配一个介于0.0到1.0之间的权重。如何在Tensorflow中实现这一点,特别是在使用tf.nn.sparse_softmax_cross_entropy_with_logits()时?


回答:

在最常见的情况下,当你调用tf.nn.sparse_softmax_cross_entropy_with_logits时,logits的形状为[batch_size, num_classes]labels的形状为[batch_size],该函数返回一个形状为batch_size的张量。你可以在将这些张量归约为单一损失值之前,将其与一个权重张量相乘:

weights = tf.placeholder(name="loss_weights", shape=[None], dtype=tf.float32)loss_per_example = tf.nn.sparse_softmax_cross_entropy_with_logits(logits, labels)loss = tf.reduce_mean(weights * loss_per_example)

Related Posts

L1-L2正则化的不同系数

我想对网络的权重同时应用L1和L2正则化。然而,我找不…

使用scikit-learn的无监督方法将列表分类成不同组别,有没有办法?

我有一系列实例,每个实例都有一份列表,代表它所遵循的不…

f1_score metric in lightgbm

我想使用自定义指标f1_score来训练一个lgb模型…

通过相关系数矩阵进行特征选择

我在测试不同的算法时,如逻辑回归、高斯朴素贝叶斯、随机…

可以将机器学习库用于流式输入和输出吗?

已关闭。此问题需要更加聚焦。目前不接受回答。 想要改进…

在TensorFlow中,queue.dequeue_up_to()方法的用途是什么?

我对这个方法感到非常困惑,特别是当我发现这个令人费解的…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注