为了深入了解生成对抗网络,我尝试根据斯坦福大学的作业使用TensorFlow自己实现一个针对MNIST数据集的GAN。
我仔细审查和研究了给定练习的解决方案,并通过了所有测试。然而,我的生成器只能生成噪声。
我相当确定辅助函数是正确的,所有测试都通过了,并且我在网上找到了显示完全相同实现的参考。因此,问题可能出在判别器和生成器的架构上:
def discriminator(x): with tf.variable_scope("discriminator"): l_1 = leaky_relu(tf.layers.dense(x, 256, activation=None)) l_2 = leaky_relu(tf.layers.dense(l_1, 256, activation=None)) logits = tf.layers.dense(l_2, 1, activation=None) return logitsdef generator(z): with tf.variable_scope("generator"): l_1 = tf.maximum(tf.layers.dense(z, 1024, activation=None), 0) l_2 = tf.maximum(tf.layers.dense(l_1, 1024, activation=None), 0) img = tf.tanh(tf.layers.dense(l_2, 784, activation=None)) return img
我注意到生成器和判别器的误差在第一次迭代后就接近于零。
Iter: 0, D: 1.026, G:0.6514Iter: 50, D: 2.721e-05, G:5.066e-06Iter: 100, D: 1.099e-05, G:3.084e-06Iter: 150, D: 7.546e-06, G:1.946e-06Iter: 200, D: 3.386e-06, G:1.226e-06...
使用较低的学习率,例如1e-7
,判别器和生成器的误差率会缓慢下降,但最终也会降至零,并且只生成噪声。
Iter: 0, D: 1.722, G:0.6772Iter: 50, D: 1.704, G:0.665Iter: 100, D: 1.698, G:0.661Iter: 150, D: 1.663, G:0.6594Iter: 200, D: 1.661, G:0.6574...
我已经启动并运行了TensorFlow图表来进行实验,但到目前为止未能从中解读出任何有意义的信息。如果您有任何建议或可以推荐调试的技术,我将非常乐意听到。
根据请求,这里是我的GAN损失函数代码:
def gan_loss(logits_real, logits_fake): labels_real = tf.ones_like(logits_real) labels_fake = tf.zeros_like(logits_fake) d_loss_real = tf.nn.sigmoid_cross_entropy_with_logits(logits=logits_real, labels=labels_real) d_loss_fake = tf.nn.sigmoid_cross_entropy_with_logits(logits=logits_fake, labels=labels_fake) D_loss = tf.reduce_mean(d_loss_real + d_loss_fake) G_loss = tf.reduce_mean(tf.nn.sigmoid_cross_entropy_with_logits(logits=logits_fake, labels=labels_fake)) return D_loss, G_loss
回答:
据我理解,您应该将此模型中的以下部分进行修改:
G_loss = tf.reduce_mean(tf.nn.sigmoid_cross_entropy_with_logits( logits=logits_fake, labels=labels_fake))
修改为:
G_loss = tf.reduce_mean(tf.nn.sigmoid_cross_entropy_with_logits( logits=logits_fake, labels=tf.ones_like(logits_fake)))