我在学习GANs,并在尝试这里的示例。
下面的代码使用Adam优化器时出现了错误
“ValueError: Variable d_w1/Adam/ 不存在,或者不是通过tf.get_variable()创建的。你是否应该在VarScope中设置reuse=None?”
我使用的是TF 1.1.0
d_loss_real = tf.reduce_mean(tf.nn.sigmoid_cross_entropy_with_logits(logits=Dx, labels=tf.fill([batch_size, 1], 0.9)))d_loss_fake = tf.reduce_mean(tf.nn.sigmoid_cross_entropy_with_logits(logits=Dg, labels=tf.zeros_like(Dg)))d_loss = d_loss_real + d_loss_faketvars = tf.trainable_variables()d_vars = [var for var in tvars if 'd_' in var.name]g_vars = [var for var in tvars if 'g_' in var.name]# 训练鉴别器# 从GitHub版本的0.001增加with tf.variable_scope(tf.get_variable_scope(), reuse=False) as scope: # 接下来,我们指定两个优化器。在当今深度学习时代,Adam似乎是最好的SGD优化器,因为它利用了自适应学习率和动量。 # 我们调用Adam的minimize函数,并指定我们希望它更新的变量。 d_trainer_real = tf.train.AdamOptimizer(0.0001).minimize(d_loss_real, var_list=d_vars) d_trainer_fake = tf.train.AdamOptimizer(0.0001).minimize(d_loss_fake, var_list=d_vars)
我认为Adam优化器将变量带入了它自己的命名空间,但出于某种原因它们没有被初始化。我在后面的代码中确实调用了global_variables_initializer
,如GitHub页面所示。我正在查阅文档,我认为这可能与我需要在其中添加某种reuse_variables()
调用有关,但我并不确定。
任何帮助都将不胜感激。
回答:
你的ValueError是由在variable_scope.reuse==True时创建新变量引起的。
当你调用Adam的minimize函数时,Adam会创建变量,用于保存图中每个可训练变量的动量。
实际上,代码”reuse=False”并没有如你所期望的那样工作。一旦你将reuse设置为True,它就永远无法再变回False,并且reuse状态将被其所有子作用域继承。
with tf.variable_scope(tf.get_variable_scope(), reuse=False) as scope: assert tf.get_variable_scope().reuse == True
我猜你在发布代码之前的某个地方将reuse设置为了True,因此默认的variable_scope.reuse==True。然后你为Adam创建了一个新的variable_scope,然而,新作用域会继承默认作用域的reuse状态。然后,Adam在reuse==True的状态下创建变量,导致了错误。
解决方案是在你设置variable_scope.reuse=True时,在图的默认作用域下添加一个子作用域,这样默认作用域的reuse仍然是False,Adam.minimize就会正常工作。