执行以下代码有什么区别?是修改训练结构中的epochs更好,还是将训练函数放在循环中更好?谢谢
第一段代码:
for(i=1:10) % 训练网络 [net,tr] = train(net,inputs,targets);end
第二段代码:
net.trainParam.epochs = 200;[net,tr] = train(net,inputs,targets);
回答:
如果您提供的用于训练的输入和目标描述了一个非常难训练的模型,那么理论上第一段和第二段代码之间没有区别。这假设您的网络在每次for
循环的迭代中都达到了最大迭代次数/epochs。
假设这是事实,基本上会发生的是,在您的第一段代码中,它会简单地取前一次迭代的训练网络,并用于下一次迭代。这假设训练没有收敛,它应该只是在训练方面“从上次离开的地方继续”。在第二段代码中,您在一开始就设置了达到收敛所需的总迭代次数,并只进行一次训练。
如果情况是您的网络非常难训练,并且在for
循环的每次迭代中达到了最大迭代次数/epochs,那么这两者之间将没有区别。
然而,根据您的输入和目标,训练您的神经网络可能需要少于您设置的最大epochs数。例如,如果您将最大epochs数设置为…比如说…100,而在循环的第一次迭代中只用了35个epochs就完成了训练,那么之后的迭代将不会改变网络,因此会导致不必要的计算。
因此,如果您的网络非常容易训练,那么只需使用第二段代码。如果您的网络非常难训练,那么仅仅使用第二段代码设置最大epochs数并一次性训练可能不够。因此,如果您有一个更难训练的网络,而不是设置一个可能需要时间才能收敛的巨大epochs数,减少总epochs数并将其放入for
循环中以进行增量更改可能是明智的。
因此,如果您想从中学到一些东西,如果您看到网络相当容易训练,请使用第二段代码。对于更难训练的网络,请使用第一段代码,但减少epochs数并将其放入for
循环中。