如何在使用 tf.train.MonitoredTrainingSession 时获取全局步骤

当我们在 Saver.save 中指定 global_step 时,它会将 global_step 存储为检查点的后缀。

# 保存检查点
saver = tf.train.Saver()
saver.save(session, checkpoints_path, global_step)

我们可以这样恢复检查点并获取存储在检查点中的最后一个全局步骤:

# 恢复检查点并获取全局步骤
saver.restore(session, ckpt.model_checkpoint_path)
...
_, gstep = session.run([optimizer, global_step], feed_dict=feed_dict_train)

如果我们使用 tf.train.MonitoredTrainingSession,如何等效地将全局步骤保存到检查点并获取 gstep

编辑 1

按照Maxim的建议,我在 tf.train.MonitoredTrainingSession 之前创建了 global_step 变量,并添加了一个 CheckpointSaverHook,如下所示:

global_step = tf.train.get_or_create_global_step()
save_checkpoint_hook = tf.train.CheckpointSaverHook(checkpoint_dir=checkpoints_abs_path,
                                                    save_steps=5,
                                                    checkpoint_basename=(checkpoints_prefix + ".ckpt"))
with tf.train.MonitoredTrainingSession(master=server.target,
                                       is_chief=is_chief,
                                       hooks=[sync_replicas_hook, save_checkpoint_hook],
                                       config=config) as session:
    _, gstep = session.run([optimizer, global_step], feed_dict=feed_dict_train)
    print("当前全局步骤=" + str(gstep))

我发现它生成了与 Saver.saver 类似的检查点文件。然而,它无法从检查点中检索全局步骤。请指导我如何修复这个问题?


回答:

您可以通过 tf.train.get_global_step()tf.train.get_or_create_global_step() 函数获取当前的全局步骤。后者应在训练开始前调用。

对于监控会话,将 tf.train.CheckpointSaverHook 添加到 hooks 中,它会在每 N 步后使用定义的全局步骤张量内部保存模型。

Related Posts

L1-L2正则化的不同系数

我想对网络的权重同时应用L1和L2正则化。然而,我找不…

使用scikit-learn的无监督方法将列表分类成不同组别,有没有办法?

我有一系列实例,每个实例都有一份列表,代表它所遵循的不…

f1_score metric in lightgbm

我想使用自定义指标f1_score来训练一个lgb模型…

通过相关系数矩阵进行特征选择

我在测试不同的算法时,如逻辑回归、高斯朴素贝叶斯、随机…

可以将机器学习库用于流式输入和输出吗?

已关闭。此问题需要更加聚焦。目前不接受回答。 想要改进…

在TensorFlow中,queue.dequeue_up_to()方法的用途是什么?

我对这个方法感到非常困惑,特别是当我发现这个令人费解的…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注