反向传播算法为每个模式的每个权重计算dW
(权重增量),因此在进行随机训练时如何修改权重是显而易见的。然而,如何将其用于批量训练呢?是简单地在整个训练集上累积dW
然后应用修改,还是有更多步骤?
回答:
是的,只需在整个训练集上累积dW
。至少这是我在研究生院时编写的代码方式…
反向传播算法为每个模式的每个权重计算dW
(权重增量),因此在进行随机训练时如何修改权重是显而易见的。然而,如何将其用于批量训练呢?是简单地在整个训练集上累积dW
然后应用修改,还是有更多步骤?
回答:
是的,只需在整个训练集上累积dW
。至少这是我在研究生院时编写的代码方式…