我想了解PyTorch中conv2d和conv3d之间的区别。
以下两种有什么不同:
conv3d(in, out, kernel_size(1,3,3))
和
conv2d(in,out,kernel_size(3,3))
我查看了官方文档,但我无法完全理解两者之间的区别。在这种情况下,深度为1的conv3d是否应该与conv2d相同?任何帮助都将不胜感激。
回答:
为了直观地理解卷积核的工作原理,我建议看看单个特征层中的单元(即神经元)是如何获得的。
对于二维卷积,你有卷积层(CL)中单个特征层(FL)的高度和宽度,卷积核层(KL)在其上移动。因为一个CL可以有多个FL,所以会并行创建多个KL,并放置在不同的FL上,以便并行处理它们。这种并行处理通常以KL的“堆叠”结构来展示,通常被称为“卷积核”。不仅“卷积核”这一名称的单数形式会导致混淆,而且KL的并行处理通常被展示为KL的堆叠,创造了一种深度维度的错觉。因此重要的是要记住:这不是第三维度,这只是KL-FL的并行处理。
对于三维卷积,你现在需要3D KL来处理3D FL。这是一个真正的第三维度。将要“堆叠”的3D KL的数量将自动调整,以便并行处理网络中的多个3D FL。
关于你的问题:确实,深度为1的3D卷积核与2D卷积核相同,但对于不同的情况,函数的构建方式不同。即,2D用于具有两个维度(高度,宽度)的图像,而3D用于具有三个维度(高度,宽度,深度)的图像。