通常我们定义交叉熵的方式如下:
dim = 5logits = tf.random_normal([5,3],dtype=tf.float32)labels = tf.cast(tf.one_hot(10,5),tf.int32)cost_entropy = tf.nn.sparse_softmax_cross_entropy_with_logits(logits=logits,labels=labels)with tf.Session() as sess: a,b=sess.run([logits,labels]) print(b) print(sess.run(cost_entropy)) print('\n') print(a)
输出结果:
[0 0 0 0 0][1.8559302 2.1816468 2.9526126 1.5903687 2.500083 ][[ 0.1913337 0.32995617 -0.23624638] [ 0.65993434 -0.2852072 -1.1419022 ] [-0.2529132 -0.35611948 0.4710417 ] [-0.61094457 -0.76033163 -0.6311429 ] [-1.5868235 0.81744194 -0.31859735]]
现在如果我的logits是:
[[ 0.1913337 0.32995617 -0.23624638] [ 0.65993434 -0.2852072 -1.1419022 ] [-0.2529132 -0.35611948 0.4710417 ] [-0.61094457 -0.76033163 -0.6311429 ] [-1.5868235 0.81744194 -0.31859735]]
而我的标签与logits的形状相同,例如:
[ [ 0 1 0] [ 1 0 1] [1 1 0] [1 1 1] [0 0 0] ]
因此,logits中的每个值都有一个0或1(独热编码),我该如何实现这一点?我尝试使用
`tf.nn.sparse_softmax_cross_entropy_with_logits`
和
`tf.nn.softmax_cross_entropy_with_logits`
但都出现了错误。
进一步解释:
假设我的输入是 [ [12 , 14 , 15 ] , [23 ,24 , 25 ] ]
,现在我会得到这样的logits [ [ 0.11 , -0.1 , 0.2 ] , [0.91 0.2 0.12] ]
。现在我的标签对应这些logits是 [ [ 0, 0 , 1 ] , [ 1 , 0 ,1 ] ]
。这意味着我想要从第一个取 [0.2]
,从第二个取 [0.91 , 0.12]
。
从这个向量 [ 0.11 , -0.1 , 0.2 ]
中,我想要最后一个,所以我的标签是 [ 0 , 0 ,1 ]
。从这个向量 [0.91 0.2 0.12]
中,我想要第一个和最后一个,所以我想要 [ 1, 0, 1]
。
回答:
看起来你是在寻找多标签分类。这里有一个工作示例:
dim = 5tf.reset_default_graph()logits = tf.random_normal([2,3],dtype=tf.float32)labels = tf.Variable([[ 0 , 0 ,1 ], [ 1, 0, 1]], dtype=tf.float32)cost_entropy = tf.nn.sigmoid_cross_entropy_with_logits(logits=logits,labels=labels)loss = tf.reduce_sum(tf.reduce_mean(cost_entropy, axis=0))with tf.Session() as sess: tf.global_variables_initializer().run() print(sess.run(cost_entropy)) print(sess.run(loss))
输出结果为
[[0.68918824 1.1838193 0.40476277][1.5736797 0.6862114 0.9196656 ]]2.4358916