我加载了一个自定义的PyTorch模型,我想找出它的输入形状。类似于这样的操作:
model.input_shape
是否有可能获取这些信息?
更新: print()
和 summary()
并未显示这个模型的输入形状,因此它们并不是我所寻找的。
回答:
PyTorch的灵活性
PyTorch模型是非常灵活的对象,以至于它们不强制执行或通常不期望数据有固定的输入形状。
如果你有一些特定的层,可能会有限制,例如:
- 一个展平层后面跟着一个宽度为N的全连接层会强制你原始输入的维度(M1 x M2 x … Mn)的乘积等于N
- 一个输入通道为N的2D卷积会强制数据为3维,第一维的大小为N
但如你所见,这些都不强制数据的总形状。
我们现在可能没有意识到,但在更复杂的模型中,正确设置第一个线性层的尺寸有时会成为挫败感的来源。我们听过一些著名的从业者讲述他们输入任意数字,然后依赖PyTorch的错误消息来回溯他们线性层的正确尺寸的故事。很烂,对吧?不,这完全合法!
- 深度学习与PyTorch
调查
简单情况:第一层是全连接层
如果你的模型的第一层是全连接层,那么print(model)
中的第一层将详细说明单个样本的预期维度。
模糊情况:CNN
然而,如果它是一个卷积层,由于这些层是动态的,并且会根据输入允许的范围进行步进,因此没有简单的方法可以从模型本身检索到这些信息1。这种灵活性意味着对于许多架构,多个兼容的输入尺寸2都将被网络接受。
这是PyTorch的动态计算图的一个特性。
手动检查
你需要做的是调查网络架构,一旦你找到了一个可解释的层(如果存在,例如全连接层),就“逆向工作”其维度,确定前面的层(例如池化和卷积)如何压缩/修改了它。
示例
例如,在深度学习与PyTorch(8.5.1)中的以下模型中:
class NetWidth(nn.Module): def __init__(self): super().__init__() self.conv1 = nn.Conv2d(3, 32, kernel_size=3, padding=1) self.conv2 = nn.Conv2d(32, 16, kernel_size=3, padding=1) self.fc1 = nn.Linear(16 * 8 * 8, 32) self.fc2 = nn.Linear(32, 2) def forward(self, x): out = F.max_pool2d(torch.tanh(self.conv1(x)), 2) out = F.max_pool2d(torch.tanh(self.conv2(out)), 2) out = out.view(-1, 16 * 8 * 8) out = torch.tanh(self.fc1(out)) out = self.fc2(out) return out
我们看到该模型接受一个具有3
个通道的2D图像输入,并且:
Conv2d
-> 将其发送到具有32个通道的相同尺寸的图像max_pool2d(,2)
-> 在每个维度上将图像尺寸减半Conv2d
-> 将其发送到具有16个通道的相同尺寸的图像max_pool2d(,2)
-> 在每个维度上将图像尺寸再次减半view
-> 重塑图像Linear
-> 接受大小为16 * 8 * 8
的张量并将其发送到大小为32
的张量- …
因此,逆向工作,我们有:
- 形状为
16 * 8 * 8
的张量 - 未重塑为形状(通道 x 高度 x 宽度)
- 在2D中未最大池化,系数为2,因此高度和宽度未减半
- 从16个通道未卷积到32个通道
假设: 因此,乘积中的16可能指的是通道数,并且view
看到的图像形状为(通道, 8,8),当前形状为(通道, 16,16)2 - 在2D中未最大池化,系数为2,因此高度和宽度再次未减半(通道, 32,32)
- 从32个通道未卷积到3个通道
因此,假设卷积核大小和填充足以使卷积本身保持图像尺寸,很可能输入图像的形状是(3,32,32),即RGB 32×32像素的方形图像。
备注:
-
即使是外部包
pytorch-summary
也需要你提供输入形状才能显示每层的输出形状。 -
然而,它可以是任何两个乘积等于8*8的数字,例如(64,1),(32,2),(16,4)等,但由于代码写成8*8,很可能作者使用了实际尺寸。