Pytorch 在每次训练会话后恢复训练

我有一个被划分为更小数据集的数据集。

我想为数据集的每个分区训练3个模型,但所有训练会话都需要从相同的初始网络参数开始。

所以看起来是这样的:

modelList = []thisCNN = NNet()for x in range(3):    train = torch.utils.data.DataLoader(Subset(train_set, indexes[x]), batch_size=32)    bb = trainMyNet(thisCNN, train, test)    modelList.append(list(bb.parameters()))print modelList[0][1]print modelList[1][1]print modelList[2][1]

在打印时,我发现每个保存的模型的参数完全相同,这很奇怪,而且我还注意到在每次迭代后,模型实际上是从前一次迭代继续训练的,因为每次迭代的损失都在降低。

我试图实现的是,每次迭代在当前子集 x 上获得一个新模型,但训练应从相同的初始 thisCNN = NNet() 权重开始。


回答:

当你调用 bb = trainMyNet(thisCNN, train, test) 时,你并没有复制 thisCNN,而是在每次迭代中更新的是同一个模型。要使你的代码正常工作,你可能应该传递这个模型的副本:

from copy import deepcopy    modelList = []thisCNN = NNet()for x in range(3):    train = torch.utils.data.DataLoader(Subset(train_set, indexes[x]), batch_size=32)    bb = trainMyNet(deepcopy(thisCNN), train, test)    modelList.append(list(bb.parameters()))print modelList[0][1]print modelList[1][1]print modelList[2][1]

这应该会将所有模型初始化为 thisCNN,并确保它们在训练后是不同的。

Related Posts

Flatten and back keras

我正在尝试使用自编码器获取简单向量中的值 这是我的代码…

如何按索引访问PyTorch模型参数

如果我的网络有10层,包括偏置项,如何仅通过索引访问第…

Python中多元逻辑回归显示错误

我试图使用逻辑回归进行预测,并使用Python和skl…

在MACOS上安装NLTK

我在我的2015款Mac Pro上尝试安装NLTK,操…

如何在R中将通过RFE选择的变量插入到机器学习模型中?

我想使用递归特征消除方法来选择最重要的特征,然后将这些…

CountVectorizer 错误:ValueError: setting an array element with a sequence

我有一个包含144条学生反馈的数据集,其中有72条正面…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注