我是神经网络领域的初学者,我想理解一个特定的说法。一个朋友说,当你向神经网络输入大量数据后,它的适应速度会变慢。
目前,我刚完成了由吴恩达教授的Coursera机器学习课程。在那里,我实现了反向传播算法。我认为它只是通过不同的计算方法来调整模型以适应预期输出。然而,这并不像是在使用历史数据来调整模型。只是检查了神经元的当前状态,并结合正则化向后调整它们的权重。
我的假设正确吗,还是我错了?是否有一些库使用历史数据,导致模型在一定量的训练后适应速度变慢?
我想使用一个简单的强化学习神经网络,我想了解如果目标环境因为某些原因发生变化,我是否需要重置我的模型。否则,我的模型在时间推移后适应速度会越来越慢。
提前感谢任何链接和解释!
回答:
正如你所说,神经网络通过在反向传播步骤中修改权重来进行适应。随着训练的进行,修改这些权重的步骤数量始终保持不变,因此不会变慢。运行一个示例通过你的模型所需的步骤数量也将保持不变,因此不会因为你在训练期间输入的示例数量而减慢你的网络速度。
然而,你可以决定在训练过程中改变学习率(通常随着epoch的进行而降低)。根据你的模型学习率的变化方式,权重将以不同的方式被修改,通常每个epoch的差异会更小。