我有一个训练好的二分类模型。模型类中包含self.cost
、self.initial_state
、self.final_state
和self.logits
参数。模型简单地通过tf.train.Saver
保存:
saver = tf.train.Saver(tf.global_variables(), max_to_keep=1)saver.save(session, 'model.ckpt')
模型训练完成后,我这样加载它:
with tf.variable_scope("Model", reuse=False): model = MODEL(config, is_training=False)with tf.Session() as session: saver = tf.train.Saver(tf.global_variables()) saver.restore(session, 'model.ckpt')
然而,我的model.run
函数返回的是图中最后一个操作的交叉熵损失。我不需要损失,我需要的是每个批次元素的模型预测结果
logits = tf.sigmoid(tf.nn.xw_plus_b(last_layer, self.output_w, self.output_b))
其中last_layer
是一个800x1
的矩阵,之后我将其重塑为32x25x1
(批次大小,序列长度,1)的矩阵。这个矩阵包含了模型预测值,范围在[0-1]之间。
那么,如何使用这个模型对单个元素矩阵1x1x1
进行预测呢?
回答:
添加必要的操作符来计算准确率,类似于我下方复制的代码(只是从我手边最接近的模型中复制出来的)。
self.logits_flat = tf.argmax(logits, axis=1, output_type=tf.int32) labels_flat = tf.argmax(labels, axis=1, output_type=tf.int32) accuracy = tf.cast(tf.equal(self.logits_flat, labels_flat), tf.float32, name='accuracy')
现在,当你运行模型(无论是在测试还是训练时),在sess.run
调用中添加准确率,如下所示:
sess.run([train_op, accuracy], feed_dict=...)
或者
sess.run([accuracy, logits], feed_dict=...)
当你调用sess.run
时,你所做的是告诉Tensorflow计算你所请求的任何值。你需要传递它所需的任何数据来执行这些计算。Tensorflow是惰性的,它不会执行任何明确不需要的计算来产生你请求的结果。例如,如果你运行上面列出的第二个版本的sess.run
,优化器将不会运行,因此你的权重不会被更新。
请注意,你可以在网络训练后添加这些操作符,因为它们实际上不会添加任何变量,因此它们不会影响保存/恢复过程。