我有一个被划分为更小数据集的数据集。
我想为数据集的每个分区训练3个模型,但所有训练会话都需要从相同的初始网络参数开始。
所以看起来是这样的:
modelList = []thisCNN = NNet()for x in range(3): train = torch.utils.data.DataLoader(Subset(train_set, indexes[x]), batch_size=32) bb = trainMyNet(thisCNN, train, test) modelList.append(list(bb.parameters()))print modelList[0][1]print modelList[1][1]print modelList[2][1]
在打印时,我发现每个保存的模型的参数完全相同,这很奇怪,而且我还注意到在每次迭代后,模型实际上是从前一次迭代继续训练的,因为每次迭代的损失都在降低。
我试图实现的是,每次迭代在当前子集 x
上获得一个新模型,但训练应从相同的初始 thisCNN = NNet()
权重开始。
回答:
当你调用 bb = trainMyNet(thisCNN, train, test)
时,你并没有复制 thisCNN
,而是在每次迭代中更新的是同一个模型。要使你的代码正常工作,你可能应该传递这个模型的副本:
from copy import deepcopy modelList = []thisCNN = NNet()for x in range(3): train = torch.utils.data.DataLoader(Subset(train_set, indexes[x]), batch_size=32) bb = trainMyNet(deepcopy(thisCNN), train, test) modelList.append(list(bb.parameters()))print modelList[0][1]print modelList[1][1]print modelList[2][1]
这应该会将所有模型初始化为 thisCNN
,并确保它们在训练后是不同的。