我有2张图片作为输入,分别是x1和x2,并尝试使用卷积作为相似性度量。这个想法是,学习到的权重替代了更传统的相似性度量(如交叉相关、最近邻等)。我的前向函数定义如下:
def forward(self,x1,x2): out_conv1a = self.conv1(x1) out_conv2a = self.conv2(out_conv1a) out_conv3a = self.conv3(out_conv2a) out_conv1b = self.conv1(x2) out_conv2b = self.conv2(out_conv1b) out_conv3b = self.conv3(out_conv2b)
现在来看相似性度量:
out_cat = torch.cat([out_conv3a, out_conv3b],dim=1)futher_conv = nn.Conv2d(out_cat)
我的问题如下:
1) 如谷歌论文中所述,使用深度/可分离卷积是否比对拼接输入进行2D卷积有优势?此外,卷积可以作为相似性度量吗?交叉相关和卷积非常相似。
2) 我的理解是,conv2d中的groups=2选项会提供两个独立的输入来训练权重,在这种情况下是之前网络的每个权重。这些权重随后如何结合起来?
有关基本概念,请参见这里。
回答:
使用nn.Conv2d
层时,你假设权重是可训练的参数。然而,如果你想用一个特征图过滤另一个特征图,你可以深入了解并使用torch.nn.functional.conv2d
来明确定义输入和滤波器:
out = torch.nn.functional.conv2d(out_conv3a, out_conv3b)