我正在阅读Francois Chollet的《用Python学习》这本书。在第128页,作者讨论了连续使用Conv2d层而不是使用最大池化层的问题。我的问题来自于下面的段落。我不明白7X7是从哪里来的?
这不利于学习空间特征层次。第三层中的3 × 3窗口仅包含来自初始输入中7 × 7窗口的信息。卷积网络学习的高级模式相对于初始输入仍然非常小,这可能不足以学习分类数字(试着仅通过7 × 7像素的窗口来识别数字!)。我们需要最后一个卷积层的特征包含关于整个输入的信息。
Layer (type) Output Shape Param #================================================================conv2d_4 (Conv2D) (None, 26, 26, 32) 320________________________________________________________________conv2d_5 (Conv2D) (None, 24, 24, 64) 18496________________________________________________________________conv2d_6 (Conv2D) (None, 22, 22, 64) 36928================================================================Total params: 55,744Trainable params: 55,744Non-trainable params: 0
回答:
我假设你的CNN架构只有3*3的核。
通过3*3的核,第一层从你的输入创建特征图。这些特征图的每个像素仅依赖于输入的3*3方块。然后第二层做同样的事情,以特征图作为输入。所以现在,一个像素依赖于特征图的3*3方块,而这个方块又依赖于输入的5*5方块。
通过第三次这样做,第三层特征图上的一个像素仅依赖于输入的7*7窗口。
这里是一个一维的例子:
* # 第三层像素 | | | * * * # 第二层像素 | | | | | * * * * * # 第一层像素 | | | | | | | * * * * * * * # 输入像素 --> 唯一的一个第三层像素仅依赖于7个输入像素