PyTorch: state_dict 和 parameters() 有什么区别?

为了访问 PyTorch 模型的参数,我看到了两种方法:

使用 state_dict 和使用 parameters()

我想知道它们有什么区别,或者一种是好的做法而另一种是坏的做法。

谢谢


回答:

parameters() 只提供模块的参数,即权重和偏置。

返回模块参数的迭代器。

您可以按以下方式检查参数列表:

for name, param in model.named_parameters():    if param.requires_grad:        print(name)

另一方面,state_dict 返回一个包含模块完整状态的字典。查看其源代码,它不仅包含对 parameters 的调用,还包括 buffers 等。

参数和持久缓冲区(例如运行平均值)都被包含在内。键是相应的参数和缓冲区名称。

使用以下方式检查 state_dict 包含的所有键:

model.state_dict().keys()

例如,在 state_dict 中,您会发现如 bn1.running_meanrunning_var 这样的条目,这些在 .parameters() 中是没有的。


如果您只想访问参数,可以简单地使用 .parameters(),而对于像在迁移学习中保存和加载模型这样的目的,您需要保存 state_dict 而不仅仅是参数。

Related Posts

Flatten and back keras

我正在尝试使用自编码器获取简单向量中的值 这是我的代码…

如何按索引访问PyTorch模型参数

如果我的网络有10层,包括偏置项,如何仅通过索引访问第…

Python中多元逻辑回归显示错误

我试图使用逻辑回归进行预测,并使用Python和skl…

在MACOS上安装NLTK

我在我的2015款Mac Pro上尝试安装NLTK,操…

如何在R中将通过RFE选择的变量插入到机器学习模型中?

我想使用递归特征消除方法来选择最重要的特征,然后将这些…

CountVectorizer 错误:ValueError: setting an array element with a sequence

我有一个包含144条学生反馈的数据集,其中有72条正面…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注