神经网络训练期间的均方误差(MSE)

训练过程中MSE有可能增加吗?

我目前正在计算验证集在每个epoch的MSE,并且在某个点上,MSE开始增加而不是减少。有人能解释这种行为吗?


回答:

回答你的问题:是的,这是有可能的。

如果你使用了正则化或随机训练,训练过程中MSE出现一些波动是正常的。

导致这一问题的一些可能原因

  1. 你使用的学习率过高,导致超过了成本函数的局部最小值,出现了过冲问题。

  2. 神经网络出现了过拟合。训练过度,失去了其泛化能力。

你可以尝试的措施:

  1. 当这种情况开始发生时,降低你的学习率。

  2. 对你的网络应用某种正则化方法,如dropout,以避免过拟合。

Related Posts

L1-L2正则化的不同系数

我想对网络的权重同时应用L1和L2正则化。然而,我找不…

使用scikit-learn的无监督方法将列表分类成不同组别,有没有办法?

我有一系列实例,每个实例都有一份列表,代表它所遵循的不…

f1_score metric in lightgbm

我想使用自定义指标f1_score来训练一个lgb模型…

通过相关系数矩阵进行特征选择

我在测试不同的算法时,如逻辑回归、高斯朴素贝叶斯、随机…

可以将机器学习库用于流式输入和输出吗?

已关闭。此问题需要更加聚焦。目前不接受回答。 想要改进…

在TensorFlow中,queue.dequeue_up_to()方法的用途是什么?

我对这个方法感到非常困惑,特别是当我发现这个令人费解的…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注