Matlab神经网络训练

执行以下代码有什么区别?是修改训练结构中的epochs更好,还是将训练函数放在循环中更好?谢谢

第一段代码:

for(i=1:10)    % 训练网络    [net,tr] = train(net,inputs,targets);end

第二段代码:

net.trainParam.epochs = 200;[net,tr] = train(net,inputs,targets);

回答:

如果您提供的用于训练的输入和目标描述了一个非常难训练的模型,那么理论上第一段和第二段代码之间没有区别。这假设您的网络在每次for循环的迭代中都达到了最大迭代次数/epochs。

假设这是事实,基本上会发生的是,在您的第一段代码中,它会简单地取前一次迭代的训练网络,并用于下一次迭代。这假设训练没有收敛,它应该只是在训练方面“从上次离开的地方继续”。在第二段代码中,您在一开始就设置了达到收敛所需的总迭代次数,并只进行一次训练。

如果情况是您的网络非常难训练,并且在for循环的每次迭代中达到了最大迭代次数/epochs,那么这两者之间将没有区别。


然而,根据您的输入和目标,训练您的神经网络可能需要少于您设置的最大epochs数。例如,如果您将最大epochs数设置为…比如说…100,而在循环的第一次迭代中只用了35个epochs就完成了训练,那么之后的迭代将不会改变网络,因此会导致不必要的计算。

因此,如果您的网络非常容易训练,那么只需使用第二段代码。如果您的网络非常难训练,那么仅仅使用第二段代码设置最大epochs数并一次性训练可能不够。因此,如果您有一个更难训练的网络,而不是设置一个可能需要时间才能收敛的巨大epochs数,减少总epochs数并将其放入for循环中以进行增量更改可能是明智的。


因此,如果您想从中学到一些东西,如果您看到网络相当容易训练,请使用第二段代码。对于更难训练的网络,请使用第一段代码,但减少epochs数并将其放入for循环中。

Related Posts

L1-L2正则化的不同系数

我想对网络的权重同时应用L1和L2正则化。然而,我找不…

使用scikit-learn的无监督方法将列表分类成不同组别,有没有办法?

我有一系列实例,每个实例都有一份列表,代表它所遵循的不…

f1_score metric in lightgbm

我想使用自定义指标f1_score来训练一个lgb模型…

通过相关系数矩阵进行特征选择

我在测试不同的算法时,如逻辑回归、高斯朴素贝叶斯、随机…

可以将机器学习库用于流式输入和输出吗?

已关闭。此问题需要更加聚焦。目前不接受回答。 想要改进…

在TensorFlow中,queue.dequeue_up_to()方法的用途是什么?

我对这个方法感到非常困惑,特别是当我发现这个令人费解的…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注