如何在TensorFlow中解释预测结果,它们的形状似乎不对

我有一个TensorFlow模型,具有一些如下特征:

    state_size = 800,    num_classes = 14313,    batch_size = 10,    num_steps = 16, # 张量的宽度    num_layers = 3   x = tf.placeholder(tf.int32, [batch_size, num_steps], name='input_placeholder')   y = tf.placeholder(tf.int32, [batch_size, num_steps], name='labels_placeholder')   rnn_inputs = [tf.squeeze(i, squeeze_dims=[1]) for i in                  tf.split(x_one_hot, num_steps, 1)]  # 仍然是一个张量列表 (batch_size, num_classes)   ...   logits = tf.matmul(rnn_outputs, W) + b   predictions = tf.nn.softmax(logits)

现在我想输入一个np.array(形状为batch_size x num_steps,即10 x 16),然后得到一个predictions张量作为返回值。

奇怪的是,它的形状是160 x 14313。后者是类别的数量。但是160是从哪里来的?我不明白这一点。我希望对批次中的每个元素(批次大小为10)得到每个类别的概率。为什么num_steps会涉及其中?我该如何从这个pred.张量中读取在那些16个数字之后的预期元素呢?


回答:

在这种情况下,160确实来自于形状,正如你所猜测的。
这意味着对于每个大小为10的批次,有16个时间步长,当你处理形状变量时,这些会被展平。
此时,你的logits形状为160 * 类别数。因此,你可以对每个批次使用predictions[i]来获取每个类别成为目标类别的概率。
这就是为什么要获取选择的类别,你可以使用tf.argmax(predictions, 1)来获得一个包含分类结果的张量,
在你的例子中,这将具有160的形状,所以它将是每个批次的预测类别。

为了获取概率,你可以使用logits

def prob(logit):    return 1/(1 + np.exp(-logit))        

Related Posts

使用LSTM在Python中预测未来值

这段代码可以预测指定股票的当前日期之前的值,但不能预测…

如何在gensim的word2vec模型中查找双词组的相似性

我有一个word2vec模型,假设我使用的是googl…

dask_xgboost.predict 可以工作但无法显示 – 数据必须是一维的

我试图使用 XGBoost 创建模型。 看起来我成功地…

ML Tuning – Cross Validation in Spark

我在https://spark.apache.org/…

如何在React JS中使用fetch从REST API获取预测

我正在开发一个应用程序,其中Flask REST AP…

如何分析ML.NET中多类分类预测得分数组?

我在ML.NET中创建了一个多类分类项目。该项目可以对…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注