以下函数用于计算逻辑回归的准确率,但在这个函数中使用reduce_mean
函数的目的是什么?
代码如下:
import tensorflow as tf def accuracy(y_pred, y_true): # 预测类别是预测向量中最高分数的索引(即argmax)。 correct_prediction = tf.equal(tf.argmax(y_pred, 1), tf.cast(y_true, tf.int64)) return tf.reduce_mean(tf.cast(correct_prediction, tf.float32))
回答:
首先要注意的是,度量或损失函数通常期望一批预测值/真实标签作为输入。现在,correct_prediction
的每个元素如果对应的预测是正确的,则为True
;否则为False
。然后,tf.cast(correct_prediction, tf.float32)
会将True
值转换为1,将False
值转换为0。因此,计算其平均值(即均值)就相当于预测的准确率(虽然是[0,1]范围内的值,而不是百分比)。
为了进一步澄清这一点,请考虑以下情况:
>>> correct_prediction[True, False, False, True, True] # 5个预测中有3个是正确的>>> tf.cast(correct_prediction, tf.float32)[1, 0, 0, 1, 1]>>> tf.reduce_mean(tf.cast(correct_prediction, tf.float32))0.6 # 这意味着60%的准确率,这正是我们所期望的