train_on_batch()
与fit()
有何不同?在哪些情况下我们应该使用train_on_batch()
?
回答:
对于这个问题,来自主要作者的简单回答是:
使用
fit_generator
时,你也可以为验证数据使用生成器。总的来说,我建议使用fit_generator
,但使用train_on_batch
也是可以的。这些方法只是为了在不同使用场景中提供便利,并不存在“正确”的方法。
train_on_batch
允许你基于你提供的一组样本明确地更新权重,而不考虑任何固定的批次大小。你会在想要明确地在一个特定样本集合上进行训练时使用这个方法。你可以使用这种方法在传统训练集的多个批次上自己进行迭代,但让fit
或fit_generator
为你迭代批次可能会更简单。
使用train_on_batch
的一个不错的场景是用一个新的样本批次来更新预训练模型。假设你已经训练并部署了一个模型,后来你收到了之前从未使用过的一组新的训练样本。你可以使用train_on_batch
直接仅在这些样本上更新现有模型。其他方法也可以做到这一点,但使用train_on_batch
来处理这种情况更为明确。
除了这种特殊情况(例如,你有教育上的理由需要在不同的训练批次上维护自己的游标,或者对于某个特殊批次进行某种半在线训练更新),在大多数情况下,最好始终使用fit
(对于能装入内存的数据)或fit_generator
(对于以生成器形式流式传输的数据批次)。