ANN: 如何正确选择初始权重以避免局部最小值?

在反向传播训练中,沿着误差曲面进行梯度下降时,隐藏层中拥有大量神经元的网络可能会陷入局部最小值。我读到过,在所有情况下将权重重新初始化为随机数最终可以避免这个问题。这意味着总有一组“正确”的初始权重值。(这样假设安全吗?)

我需要找到或创建一个算法来找到这些权重值。

我尝试过在谷歌上搜索这个算法,也尝试过自己设计,但都没有成功。有人能提出解决方案吗?或许有一个我可以搜索的算法名称?

注意:这是一个常规的前馈三层网络 🙂

注意:我知道有人尝试过使用遗传算法来达到这个目的,但这需要在每次迭代时重新训练网络,当网络足够大时,这会非常耗时。

提前感谢。


回答:

遗憾的是,永远无法保证你不会陷入局部最优值。除非你能证明你试图优化的函数的某些特性,否则局部最优值是存在的,爬山法会受其影响。(而且通常,如果你能证明你需要证明的东西,你也可以选择比神经网络更好的工具。)

一种经典的技术是逐渐降低学习率,然后提高它并再次缓慢降低它,重复几次。提高学习率会降低算法的稳定性,但能使算法有能力跳出局部最优值。这与模拟退火密切相关。

我很惊讶谷歌在这方面没有帮到你,因为这个话题有很多已发表的论文:尝试使用“局部最小值”和“局部最小值问题”这样的术语,结合神经网络和反向传播。你应该能看到许多关于改进的反向传播方法的参考文献。

Related Posts

L1-L2正则化的不同系数

我想对网络的权重同时应用L1和L2正则化。然而,我找不…

使用scikit-learn的无监督方法将列表分类成不同组别,有没有办法?

我有一系列实例,每个实例都有一份列表,代表它所遵循的不…

f1_score metric in lightgbm

我想使用自定义指标f1_score来训练一个lgb模型…

通过相关系数矩阵进行特征选择

我在测试不同的算法时,如逻辑回归、高斯朴素贝叶斯、随机…

可以将机器学习库用于流式输入和输出吗?

已关闭。此问题需要更加聚焦。目前不接受回答。 想要改进…

在TensorFlow中,queue.dequeue_up_to()方法的用途是什么?

我对这个方法感到非常困惑,特别是当我发现这个令人费解的…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注