我在尝试理解对抗生成网络的工作原理:我在François Chollet的《Python深度学习》一书中找到了一个例子,其中他使用了CIFAR10数据集的“青蛙”类别,该类别包含32×32的RGB图像。
我无法理解以下几点:
- 在(1)中,输入被转换为16 × 16的128通道(为什么是128通道?)特征图
- 在(2)中,执行卷积时,使用了什么滤波器?这点没有说明
接下来,运行另一个Conv2DTranspose
,然后再运行3个Conv2d
。为什么?!
最后,我得到一个32 × 32的1通道特征图。
from keras import layersimport numpy as nplatent_dim = 32height = 32width = 32channels = 3generator_input = keras.Input(shape=(latent_dim,))(1)x = layers.Dense(128 * 16 * 16)(generator_input)x = layers.LeakyReLU()(x)x = layers.Reshape((16, 16, 128))(x)(2)x = layers.Conv2D(256, 5, padding='same')(x)x = layers.LeakyReLU()(x)x = layers.Conv2DTranspose(256, 4, strides=2, padding='same')(x)x = layers.LeakyReLU()(x)x = layers.Conv2D(256, 5, padding='same')(x)x = layers.LeakyReLU()(x)x = layers.Conv2D(256, 5, padding='same')(x)x = layers.LeakyReLU()(x)x = layers.Conv2D(channels, 7, activation='tanh', padding='same')(x)generator = keras.models.Model(generator_input, x)generator.summary()
回答:
1) 这是一个任意的选择,你可以为Dense层选择任意数量的通道。
选择16×16是因为Conv2DTranspose
的步长设置为2,你希望将宽度和高度上采样以获得32×32的输出。
步长用于影响卷积层的输出大小。在普通卷积中,输出按与步长相同的因子进行下采样,而在转置卷积中,它们按与步长相同的因子上采样。
例如,你可以将第一层的输出更改为8x8x128,然后在Conv2DTranspose
中使用步长4,这样你将在维度上获得相同的结果。
还要记住,正如François Chollet在他的书中所述,当使用步进转置卷积时,为了避免由像素空间不均匀覆盖引起的棋盘格伪影,内核大小应能被步长数整除。
2) 你在Conv2D
或Conv2DTranspose
中设置的第一个参数是卷积层生成的滤波器数量。
如前所述,步进Conv2DTranspose
正是用于按步长数的因子上采样宽度和高度。
其他3个Conv2D
也是任意的,你应该通过实验和微调模型来确定它们。