当我使用Keras的fit_generator方法训练一个序列模型时,我看到了这样的输出
第1/N_epochs轮
n/N [====================>…………..] – ETA xxxx – 损失: yyyy
我注意到,随着步数的增加,损失值逐渐降低,这在预期之中。我的问题是,当一个轮次结束,另一个轮次开始时,我发现损失值与前一个轮次结束时的值有很大不同。
这是为什么呢?我原以为轮次和每轮的步数是任意值,例如,使用10个轮次和1000步应该和使用1000个轮次和10步是一样的。但在Keras 2.0中,从一个轮次到下一个轮次之间到底发生了什么?
免责声明:我知道轮次的定义以及如何使用批次生成器决定步数,但我有太多数据,无法应用这条规则。
回答:
Keras在轮次期间计算的损失是累积并在线估计的。因此,它包括了模型在不同权重更新后的损失。
让我们通过一个简单的例子来澄清:假设模型只在改进(每次权重更新都带来更好的准确率和损失),并且每个轮次包含2次权重更新(每个小批次是训练数据集的一半)。
在第X轮,处理了第一个小批次,结果是损失得分为2.0。更新权重后,模型运行第二个小批次,结果是损失得分为1.0(仅针对该小批次)。然而,您会看到损失从2.0变为1.5(针对整个数据集的平均值)。
现在我们开始第X+1轮,但这是在又一次权重更新之后,导致第一个小批次的损失为0.8,这个值被展示给您。以此类推…
在您的训练过程中也发生着同样的事情,显然,并非所有变化都是正面的。