我正在使用神经网络进行分类
在使用不同的训练轮次/阶段时,我注意到有时候在一次训练阶段之后,误分类率会增加,尽管训练次数也增加了。
我原本期望随着训练轮次的增加,误分类率会减少,但实际上在某些点上并没有发生这种情况,例如,误差在从1000到3000次训练轮次之间减少,但到了4000次轮次之后又增加了。所以我想知道这是否正常,以及这是否是网络过拟合数据的迹象?
谢谢
回答:
除非学习率和动量过高,否则针对训练数据的误分类率应该会随着轮次的增加而减少。然而,针对验证或测试数据的误分类率可能会在经过一定轮次后增加。在这种情况下,这是一个过拟合的迹象。