我正在学习卷积神经网络
,目前对如何实现它感到困惑。
我了解常规神经网络以及梯度下降
和反向传播
等概念,并且我能直观地理解CNN的工作原理。
我的问题是关于CNN中的反向传播。它是如何发生的?最后的全连接层是常规的神经网络,这部分没有问题。但我如何更新卷积层的滤波器?我如何将错误从全连接层反向传播到这些滤波器?我遇到的问题是更新滤波器!
滤波器只是简单的矩阵吗?还是它们有像常规NN那样的结构,层与层之间的连接模拟了这种能力?我读到过稀疏连接
和共享权重
,但我无法将它们与CNN联系起来。我对实现CNN感到非常困惑,我找不到任何讨论这些概念的教程。我无法阅读论文,因为我对这些东西还不熟悉,我的数学也不好。
我不想使用TensorFlow
或类似的工具,我正在学习基本概念并使用纯Python
。
回答:
首先,我可以推荐这个CNN的介绍。也许你可以通过这个更好地理解它的概念。
简短地回答你的一些问题:
假设你想使用CNN进行图像分类。图片由NxM像素组成,并且有3个通道(RGB)。要在其上应用卷积层,你使用一个滤波器。滤波器是(通常但不一定是)二次形状的矩阵(例如PxP),并且通道数等于它所应用的表示的通道数。因此,第一个卷积层滤波器也有3个通道。通道可以说是滤波器的层数。
当将滤波器应用到图片上时,你会进行所谓的离散卷积。你拿你的滤波器(通常比你的图像小)一步一步地滑过图片,并计算卷积。这基本上是矩阵乘法。然后你应用一个激活函数,可能还会应用一个池化层。重要的是,在这一层上执行的所有卷积的滤波器保持不变,所以你每层只有P*P个参数。你以某种方式调整滤波器,使其尽可能适合训练数据。这就是为什么它的参数被称为共享权重。当应用GD时,你只需将其应用于上述滤波器权重即可。
你还可以在这里找到一个很好的卷积演示这里。
实现这些事情当然是可能的,但作为起点,你可以尝试使用tensorflow进行实验。至少这是我学习新概念的方式 🙂