为了访问 PyTorch 模型的参数,我看到了两种方法:
使用 state_dict
和使用 parameters()
我想知道它们有什么区别,或者一种是好的做法而另一种是坏的做法。
谢谢
回答:
parameters()
只提供模块的参数,即权重和偏置。
返回模块参数的迭代器。
您可以按以下方式检查参数列表:
for name, param in model.named_parameters(): if param.requires_grad: print(name)
另一方面,state_dict
返回一个包含模块完整状态的字典。查看其源代码
,它不仅包含对 parameters
的调用,还包括 buffers
等。
参数和持久缓冲区(例如运行平均值)都被包含在内。键是相应的参数和缓冲区名称。
使用以下方式检查 state_dict
包含的所有键:
model.state_dict().keys()
例如,在 state_dict
中,您会发现如 bn1.running_mean
和 running_var
这样的条目,这些在 .parameters()
中是没有的。
如果您只想访问参数,可以简单地使用 .parameters()
,而对于像在迁移学习中保存和加载模型这样的目的,您需要保存 state_dict
而不仅仅是参数。