我在阅读以下声明:
一个包含两个5×5卷积层的CNN(第一个有32个通道,第二个有64个通道,每个后面跟随2×2的最大池化),一个具有512个单元和ReLu激活的全连接层,以及一个最终的softmax输出层(总参数1,663,370)
我不明白他们是如何计算出160万参数的。相同的网络实现给我的是大约58万参数,这对于这样一个小网络来说更为现实。
回答:
假设你在谈论MNIST图像,输入通道为1,步长为1,填充为2
INPUT: [28x28x1] weights: 0CONV5-32: [28x28x32] weights: (1*5*5)*32 + 32 = 832 POOL2: [14x14x32] weights: 0CONV5-64: [14x14x64] weights: (5*5*32)*64 + 64 = 51,264 POOL2: [7x7x64] weights: 0FC: [1x1x512] weights: 7*7*64*512 + 512 = 1,606,144Softmax: [1x1x10] weights: 512*10 + 10 = 5,130 ----------------------------------------------------------- 1,663,370