我的意思是,如果我有如下图结构:
images, labels = load_batch(...)with slim.arg_scope(inception_resnet_v2_arg_scope()): logits, end_points = inception_resnet_v2(images, num_classes = dataset.num_classes, is_training = True)predictions = tf.argmax(end_points['Predictions'], 1)accuracy, accuracy_update = tf.contrib.metrics.streaming_accuracy(predictions, labels)....train_op = slim.learning.create_train_op(...)
在图上下文中使用监督器的managed_session
作为sess
,我偶尔会运行以下代码:
print sess.run(logits)print sess.run(end_points['Predictions'])print sess.run(predictions)print sess.run(labels)
考虑到批次张量必须从load_batch
开始,然后才能到达logits
、predictions
或labels
,那么每次sess.run
是否会调用不同的批次数据?因为现在当我运行这些会话时,我得到的结果非常混乱,即使是预测结果也不匹配tf.argmax(end_points['Predictions'], 1)
,尽管模型的准确率很高,但我得到的预测结果与标签完全不匹配,无法达到那种高准确率。因此我怀疑每次sess.run
的结果可能来自不同的数据批次。
这让我想到了我的下一个问题:当一个批次从load_batch
一直到train_op
,并且实际运行的是sess.run
时,有没有办法检查图中不同部分的结果?换句话说,有没有办法在不调用另一个sess.run
的情况下做到我想要的?
另外,如果我用sess.run
的方式检查结果,这样做会不会影响我的训练,使得一些数据批次被跳过而无法到达train_op
?
回答:
我意识到使用单独的sess.run
运行存在问题,因为加载的数据总是不同的。相反,当我做如下操作时:
logits, probabilities, predictions, labels = sess.run([logits, probabilities, predictions, labels])print 'logits: \n', logitsprint 'Probabilities: \n', probabilitiesprint 'predictions: \n', predictionsprint 'Labels:\n:', labels
所有这些量都非常符合我的预期。我还尝试使用tf.Print
,写了如下代码:
logits = tf.Print(logits, [logits], message = 'logits: \n', summarize = 100)
在定义logits
之后立即执行,这样它们就可以在运行train_op
的同一个会话中被打印出来。然而,打印出来的结果相当混乱,所以我更喜欢第一种方法,即在一个会话中运行所有内容以获取值,然后像numpy数组一样正常打印它们。