当我微调预训练的resnet152模型时,似乎失去了所有我希望访问的命名层。我已经包含了简单的微调模型代码,以及预训练和微调模型的命名层输出。我希望保留层名称,以便在类激活图中可视化它们的输出。
代码
class ConvNet3(nn.Module):def init(self): super().init() model = models.resnet152(pretrained=True) model.fc = nn.Linear(2048, 10) self.model = modeldef forward(self, x): return self.model(x) # [batch_size, 10]import torchvision.models as modelsmodel = ConvNet3().eval()print([n for n, _ in model.named_children()])model = models.resnet152(pretrained=True).eval()print([n for n, _ in model.named_children()])
输出
[‘model’][‘conv1’, ‘bn1’, ‘relu’, ‘maxpool’, ‘layer1’, ‘layer2’, ‘layer3’, ‘layer4’, ‘avgpool’, ‘fc’]
回答:
层并没有丢失,你是将原始的Resnet模型封装在你自己的类中。如果你使用:
print([n for n, _ in model.model.named_children()])
因为Resnet模型存储在ConvNet3
类的model
属性下。
除非你出于其他原因需要它,否则包装类似乎是多余的,更简单的做法可以如下所示:
model = models.resnet152(pretrained=True)model.fc = nn.Linear(2048,10)model.eval()print([n for n, _ in model.named_children()])