我在理解Keras CNN模型中各层的输出形状和参数数量方面遇到了困难。
让我们来看一个简单的例子:
model = Sequential()model.add(Conv1D(7, kernel_size=40, activation="relu", input_shape=(60, 1)))model.add(Conv1D(10, kernel_size=16, activation="relu"))model.add(MaxPooling1D(pool_size=3))model.summary()
输出的内容是:
_________________________________________________________________Layer (type) Output Shape Param # =================================================================conv1d_17 (Conv1D) (None, 21, 7) 287 _________________________________________________________________conv1d_18 (Conv1D) (None, 6, 10) 1130 _________________________________________________________________max_pooling1d_11 (MaxPooling (None, 2, 10) 0 =================================================================Total params: 1,417Trainable params: 1,417Non-trainable params: 0_________________________________________________________________
对于第一个Conv1D
层,有7个滤波器,每个滤波器的输出大小为(60 – 40 + 1) = 21。参数数量为(40 + 1) * 7 = 287,考虑了偏置。因此,我能理解这个部分。
但是第二个Conv1D
层会在哪个维度上操作呢?我猜测输出滤波器的大小是21 – 16 + 1 = 6,但我不知道最后一个维度是如何从7变到10的。我也不明白参数数量是如何计算的。
最后,我不理解MaxPooling1D
层的输出形状,因为我期望输出大小应该是6 – 3 + 1 = 4,而不是2。这是如何计算的呢?
回答:
…但我不知道最后一个维度是如何从7变到10的。
通过与第一层从1变到7相同的操作:卷积滤波器应用于输入的整个最后一个轴(即维度),并在每个应用窗口生成一个数字。第二个卷积层有10个滤波器,因此每个窗口将生成10个值,因此最后一个轴的维度将是10(第一卷积层也适用同样的推理)。
我也不明白参数数量是如何计算的。
有10个滤波器。如上所述,滤波器应用于整个最后一个轴。因此,它们的宽度必须是7(即它们的输入的最后一个轴的大小)。并且卷积核大小是16。因此我们有:10 * (16 * 7) + 10(每个滤波器有一个偏置)= 1130。
最后,我不理解
MaxPooling1D
层的输出形状,因为我期望输出大小应该是6 – 3 + 1 = 4,而不是2。这是如何计算的呢?
stride
(步长)在1D-pooling层中默认等于pool_size
(池化大小)。因此,应用于长度为6的序列,一个大小为3的池化层将只有2个应用窗口。
注意:您可能还会发现这个相关的回答对了解1D卷积的工作原理有帮助。