我有一个TensorFlow模型,具有一些如下特征:
state_size = 800, num_classes = 14313, batch_size = 10, num_steps = 16, # 张量的宽度 num_layers = 3 x = tf.placeholder(tf.int32, [batch_size, num_steps], name='input_placeholder') y = tf.placeholder(tf.int32, [batch_size, num_steps], name='labels_placeholder') rnn_inputs = [tf.squeeze(i, squeeze_dims=[1]) for i in tf.split(x_one_hot, num_steps, 1)] # 仍然是一个张量列表 (batch_size, num_classes) ... logits = tf.matmul(rnn_outputs, W) + b predictions = tf.nn.softmax(logits)
现在我想输入一个np.array(形状为batch_size x num_steps,即10 x 16),然后得到一个predictions张量作为返回值。
奇怪的是,它的形状是160 x 14313。后者是类别的数量。但是160是从哪里来的?我不明白这一点。我希望对批次中的每个元素(批次大小为10)得到每个类别的概率。为什么num_steps会涉及其中?我该如何从这个pred.张量中读取在那些16个数字之后的预期元素呢?
回答:
在这种情况下,160确实来自于形状,正如你所猜测的。
这意味着对于每个大小为10的批次,有16个时间步长,当你处理形状变量时,这些会被展平。
此时,你的logits形状为160 * 类别数。因此,你可以对每个批次使用predictions[i]
来获取每个类别成为目标类别的概率。
这就是为什么要获取选择的类别,你可以使用tf.argmax(predictions, 1)
来获得一个包含分类结果的张量,
在你的例子中,这将具有160的形状,所以它将是每个批次的预测类别。
为了获取概率,你可以使用logits:
def prob(logit): return 1/(1 + np.exp(-logit))