卷积神经网络中的反向传播以及如何更新滤波器

我正在学习卷积神经网络,目前对如何实现它感到困惑。

我了解常规神经网络以及梯度下降反向传播等概念,并且我能直观地理解CNN的工作原理。

我的问题是关于CNN中的反向传播。它是如何发生的?最后的全连接层是常规的神经网络,这部分没有问题。但我如何更新卷积层的滤波器?我如何将错误从全连接层反向传播到这些滤波器?我遇到的问题是更新滤波器!

滤波器只是简单的矩阵吗?还是它们有像常规NN那样的结构,层与层之间的连接模拟了这种能力?我读到过稀疏连接共享权重,但我无法将它们与CNN联系起来。我对实现CNN感到非常困惑,我找不到任何讨论这些概念的教程。我无法阅读论文,因为我对这些东西还不熟悉,我的数学也不好。

我不想使用TensorFlow或类似的工具,我正在学习基本概念并使用纯Python


回答:

首先,我可以推荐这个CNN的介绍。也许你可以通过这个更好地理解它的概念。

简短地回答你的一些问题:

假设你想使用CNN进行图像分类。图片由NxM像素组成,并且有3个通道(RGB)。要在其上应用卷积层,你使用一个滤波器。滤波器是(通常但不一定是)二次形状的矩阵(例如PxP),并且通道数等于它所应用的表示的通道数。因此,第一个卷积层滤波器也有3个通道。通道可以说是滤波器的层数。

当将滤波器应用到图片上时,你会进行所谓的离散卷积。你拿你的滤波器(通常比你的图像小)一步一步地滑过图片,并计算卷积。这基本上是矩阵乘法。然后你应用一个激活函数,可能还会应用一个池化层。重要的是,在这一层上执行的所有卷积的滤波器保持不变,所以你每层只有P*P个参数。你以某种方式调整滤波器,使其尽可能适合训练数据。这就是为什么它的参数被称为共享权重。当应用GD时,你只需将其应用于上述滤波器权重即可。

你还可以在这里找到一个很好的卷积演示这里

实现这些事情当然是可能的,但作为起点,你可以尝试使用tensorflow进行实验。至少这是我学习新概念的方式 🙂

Related Posts

L1-L2正则化的不同系数

我想对网络的权重同时应用L1和L2正则化。然而,我找不…

使用scikit-learn的无监督方法将列表分类成不同组别,有没有办法?

我有一系列实例,每个实例都有一份列表,代表它所遵循的不…

f1_score metric in lightgbm

我想使用自定义指标f1_score来训练一个lgb模型…

通过相关系数矩阵进行特征选择

我在测试不同的算法时,如逻辑回归、高斯朴素贝叶斯、随机…

可以将机器学习库用于流式输入和输出吗?

已关闭。此问题需要更加聚焦。目前不接受回答。 想要改进…

在TensorFlow中,queue.dequeue_up_to()方法的用途是什么?

我对这个方法感到非常困惑,特别是当我发现这个令人费解的…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注