我在Keras中使用Mnist数据集编写了一个CNN模型。代码和其摘要如下所示:CNN的代码如下:
model = Sequential() model.add(Conv2D(32, kernel_size=(3, 3), activation='relu', input_shape=input_shape)) model.add(Conv2D(63, (3, 3), activation='relu')) model.add(MaxPooling2D(pool_size=(2, 2))) model.add(Dropout(0.25)) model.add(Flatten()) model.add(Dense(128, name='dense', activation='relu')) model.add(Dropout(0.5)) model.add(Dense(10, activation='softmax')) model.compile(loss=keras.losses.categorical_crossentropy, optimizer=keras.optimizers.Adadelta(), metrics=['accuracy'])
模型摘要如下:
x_train shape: (60000, 28, 28, 1)60000 train samples10000 test samples_________________________________________________________________Layer (type) Output Shape Param # =================================================================conv2d_1 (Conv2D) (None, 26, 26, 32) 320 _________________________________________________________________conv2d_2 (Conv2D) (None, 24, 24, 63) 18207 _________________________________________________________________max_pooling2d_1 (MaxPooling2 (None, 12, 12, 63) 0 _________________________________________________________________dropout_1 (Dropout) (None, 12, 12, 63) 0 _________________________________________________________________flatten_1 (Flatten) (None, 9072) 0 _________________________________________________________________dense (Dense) (None, 128) 1161344 _________________________________________________________________dropout_2 (Dropout) (None, 128) 0 _________________________________________________________________dense_1 (Dense) (None, 10) 1290 =================================================================Total params: 1,181,161Trainable params: 1,181,161Non-trainable params: 0_________________________________________________________________
第一个和第二个Conv2D层的kernel_size
都是(3,3)
。
我不明白为什么第二个Conv2D层有18207个参数。难道不应该是按照(3*3+1)*63=630
计算的吗?
回答:
要计算参数数量,你需要应用以下公式:
(FxFxCi+1)xC0
其中FxF
是核大小,C0
是输出通道数,Ci
是输入通道数。在你的情况下,你只是忘记了输入通道参数:
18207 = 63*(32*3*3+1)
编辑以回答评论:
当你得到第一层的输出时,你会得到一个形状为(None, 26, 26, 32)的“图像”(None是批次大小)。因此直觉上,你需要为每个维度(通道)学习核,因此需要为每个维度准备一个核,然后将它映射到输出维度。输出维度取决于核的参数,也取决于核的数量:卷积通常是为每个通道计算并求和的。例如,你有一个(28,28,3)的图片,使用3个(5,5,3)的卷积核,你的输出将是一个(24,24)的图片(1个输出通道)。你为每个维度准备一个核,然后将它们求和得到输出。
但你也可以有多个卷积:
你仍然有相同的图片(28,28,3),但然后有一个大小为(5,5,3,4)的卷积层。这意味着你有上述描述的4个卷积。要得到大小为(24,24,4)的输出,你不求和卷积,而是将它们堆叠起来,得到一个具有多个通道的图片。你同时学习多个独立的卷积。因此你可以看到计算的来源。为什么输入通道确实非常重要,输出通道也是如此。但它们代表非常不同的参数。(更多详细和视觉上的解释,请参见这里)