在 torchvision 模型中查找所有 ReLU 层

当我从 torchvision.models 获取一个预训练模型后,我想对所有的 ReLU 实例应用 register_backward_hook(f),就像这样:

for pos, module in self.model.features._modules.items():    for sub_module in module:        if isinstance(module, ReLU):            module.register_backward_hook(f)

对我来说的问题是如何在一个模型中找到所有的 ReLU。对于 densenet161 来说,ReLU 不仅存在于 model.features._modules 中,还存在于自定义的密集层中,例如 model.features._modules['denseblock1'][0]。对于 resnet151 来说,ReLU 存在于 model._modules 及其自定义层中,例如 model._modules['layer1']

有什么方法可以找到模型内部的所有 ReLU 吗?


回答:

遍历模型所有组件的更优雅方法是使用 modules() 方法:

from torch import nnfor module in self.model.modules():  if isinstance(module, nn.ReLU):    module.register_backward_hook(f)

如果你不想获取所有子模块,只想要直接的子模块,你可以考虑使用 children() 方法来代替 modules()。你还可以使用 named_modules() 方法来获取子模块的名称。

Related Posts

在使用k近邻算法时,有没有办法获取被使用的“邻居”?

我想找到一种方法来确定在我的knn算法中实际使用了哪些…

Theano在Google Colab上无法启用GPU支持

我在尝试使用Theano库训练一个模型。由于我的电脑内…

准确性评分似乎有误

这里是代码: from sklearn.metrics…

Keras Functional API: “错误检查输入时:期望input_1具有4个维度,但得到形状为(X, Y)的数组”

我在尝试使用Keras的fit_generator来训…

如何使用sklearn.datasets.make_classification在指定范围内生成合成数据?

我想为分类问题创建合成数据。我使用了sklearn.d…

如何处理预测时不在训练集中的标签

已关闭。 此问题与编程或软件开发无关。目前不接受回答。…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注