我在训练一个神经网络,刚开始时网络在验证数据上的损失和准确率波动很大,但随着训练的进行,这些指标逐渐稳定。我对这个网络使用了“在平台上降低学习率”的方法。是否是因为网络开始时的学习率较高,随着学习率的降低,准确率和损失都趋于稳定?
回答:
对于SGD,参数变化量是学习率与参数值相对于损失的梯度的乘积。
θ = θ − α ∇θ E[J(θ)]
每次步进时,方向通常是次优的(即稍微偏离正确方向),因为优化器通常只见过了部分数据。在训练初期,你距离最优解较远,因此梯度∇θ E[J(θ)]较大,每个次优步进对损失和准确率的影响较大。
随着时间的推移,当你(希望)逐渐接近最优解时,梯度变小,步进也随之变小,因此稍微偏离的影响也随之减小。每次步进的较小误差使得损失的下降更加平滑,从而减少了波动。