连接隐藏卷积层

我已经研究了普通的全连接人工神经网络,现在开始学习卷积神经网络。我在理解隐藏层如何连接上遇到了困难。我明白输入矩阵是如何通过移动局部感受野每次移动一个单位,并通过相同/共享的权重(对于每个特征图)向前传递到第一隐藏层的特征图中的较小值域的,因此每个特征图只有一组与局部感受野结构相同的权重。如果我哪里错了,请纠正我。然后,特征图使用池化来简化地图。接下来的部分让我感到困惑,这里有一个3D CNN可视化的链接来帮助解释我的困惑

http://scs.ryerson.ca/~aharley/vis/conv/

在左上角的填充区绘制一个0到9之间的数字,你会看到它是如何工作的。真的很酷。所以,在第一个池化层之后的层(包含16个滤波器的第四行)如果将鼠标悬停在滤波器上,你可以看到权重是如何连接到前一个池化层的。尝试这一行的不同滤波器,我不明白的是将第二卷积层连接到前一个池化层的规则。例如,最左边的滤波器,它们与池化层完全连接。但在更靠右的滤波器上,它们只连接到大约3个前一个池化层。看起来是随机的。

我希望我的解释是有意义的。我基本上对连接隐藏池化层与后续隐藏卷积层的模式感到困惑。即使我的例子有点奇怪,我仍然希望得到某种解释或指向良好解释的链接。

非常感谢。


回答:

欢迎体验自训练卷积神经网络的魔力。这很令人困惑,因为网络在训练过程中自己制定了这些规则。这是一个图像处理的例子;大多数这些训练方式大致类似于脊椎动物简化视觉皮层模型中的学习过程。

一般来说,第一层的核“学习”识别输入的非常简单的特征:不同方向的线条和边缘。下一层将这些组合成更复杂的特征,可能是一个朝左的半圆,或特定的角度方向。在模型中越深入,“决策”就越复杂,核也变得更复杂,和/或更不易识别。

从左到右连接性的差异可能是开发者有意排序的结果,也可能是模型中的偶然情况。有些特征只需要“咨询”前一层的一小部分核;其他则需要整个委员会的参与。注意简单的特征连接到相对较少的核,而最终决策则让十个类别中的每一个都与最后一层全连接层中的大部分“像素”级单元进行检查。

你可以寻找一些更大CNN实现的核可视化,例如ILSVRC中的GoogleNet、ResNet、VGG等。那些在各层中有一些引人注目的核,包括与轮子和挡泥板的模糊匹配,站立哺乳动物的前部,各类面孔等。

这有帮助吗?

所有这些都是训练期间有机增长的结果。

Related Posts

L1-L2正则化的不同系数

我想对网络的权重同时应用L1和L2正则化。然而,我找不…

使用scikit-learn的无监督方法将列表分类成不同组别,有没有办法?

我有一系列实例,每个实例都有一份列表,代表它所遵循的不…

f1_score metric in lightgbm

我想使用自定义指标f1_score来训练一个lgb模型…

通过相关系数矩阵进行特征选择

我在测试不同的算法时,如逻辑回归、高斯朴素贝叶斯、随机…

可以将机器学习库用于流式输入和输出吗?

已关闭。此问题需要更加聚焦。目前不接受回答。 想要改进…

在TensorFlow中,queue.dequeue_up_to()方法的用途是什么?

我对这个方法感到非常困惑,特别是当我发现这个令人费解的…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注