如何决定在GAN中应用多少次卷积和反卷积?

我在尝试理解对抗生成网络的工作原理:我在François Chollet的《Python深度学习》一书中找到了一个例子,其中他使用了CIFAR10数据集的“青蛙”类别,该类别包含32×32的RGB图像。

我无法理解以下几点:

  • 在(1)中,输入被转换为16 × 16的128通道(为什么是128通道?)特征图
  • 在(2)中,执行卷积时,使用了什么滤波器?这点没有说明

接下来,运行另一个Conv2DTranspose,然后再运行3个Conv2d。为什么?!

最后,我得到一个32 × 32的1通道特征图。

from keras import layersimport numpy as nplatent_dim = 32height = 32width = 32channels = 3generator_input = keras.Input(shape=(latent_dim,))(1)x = layers.Dense(128 * 16 * 16)(generator_input)x = layers.LeakyReLU()(x)x = layers.Reshape((16, 16, 128))(x)(2)x = layers.Conv2D(256, 5, padding='same')(x)x = layers.LeakyReLU()(x)x = layers.Conv2DTranspose(256, 4, strides=2, padding='same')(x)x = layers.LeakyReLU()(x)x = layers.Conv2D(256, 5, padding='same')(x)x = layers.LeakyReLU()(x)x = layers.Conv2D(256, 5, padding='same')(x)x = layers.LeakyReLU()(x)x = layers.Conv2D(channels, 7, activation='tanh', padding='same')(x)generator = keras.models.Model(generator_input, x)generator.summary()

回答:

1) 这是一个任意的选择,你可以为Dense层选择任意数量的通道。

选择16×16是因为Conv2DTranspose的步长设置为2,你希望将宽度和高度上采样以获得32×32的输出。

步长用于影响卷积层的输出大小。在普通卷积中,输出按与步长相同的因子进行下采样,而在转置卷积中,它们按与步长相同的因子上采样。

例如,你可以将第一层的输出更改为8x8x128,然后在Conv2DTranspose中使用步长4,这样你将在维度上获得相同的结果。

还要记住,正如François Chollet在他的书中所述,当使用步进转置卷积时,为了避免由像素空间不均匀覆盖引起的棋盘格伪影,内核大小应能被步长数整除。

2) 你在Conv2DConv2DTranspose中设置的第一个参数是卷积层生成的滤波器数量。

如前所述,步进Conv2DTranspose正是用于按步长数的因子上采样宽度和高度。

其他3个Conv2D也是任意的,你应该通过实验和微调模型来确定它们。

Related Posts

L1-L2正则化的不同系数

我想对网络的权重同时应用L1和L2正则化。然而,我找不…

使用scikit-learn的无监督方法将列表分类成不同组别,有没有办法?

我有一系列实例,每个实例都有一份列表,代表它所遵循的不…

f1_score metric in lightgbm

我想使用自定义指标f1_score来训练一个lgb模型…

通过相关系数矩阵进行特征选择

我在测试不同的算法时,如逻辑回归、高斯朴素贝叶斯、随机…

可以将机器学习库用于流式输入和输出吗?

已关闭。此问题需要更加聚焦。目前不接受回答。 想要改进…

在TensorFlow中,queue.dequeue_up_to()方法的用途是什么?

我对这个方法感到非常困惑,特别是当我发现这个令人费解的…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注