神经网络 – 为何有如此多的学习规则?

我刚开始学习神经网络,目前主要在跟随D. Kriesel的教程。一开始就介绍了至少三种(不同的?)关于监督学习的学习规则(赫布规则、delta规则、反向传播)。

我可能错过了什么,但如果目标只是最小化误差,为什么不直接对Error(entire_set_of_weights)应用梯度下降呢?

编辑:我必须承认这些答案仍然让我感到困惑。如果有人能指出这些方法之间的实际区别,以及它们与直接梯度下降的区别,那将非常有帮助。

需要强调的是,这些学习规则似乎考虑了网络的分层结构。另一方面,寻找整个权重集的Error(W)的最小值则完全忽略了这一点。这如何契合呢?


回答:

一个问题是如何分配错误的“责任”。经典的Delta规则或LMS规则本质上就是梯度下降。当你将Delta规则应用于多层网络时,你就得到了反向传播。其他的规则出于各种原因被创造出来,包括希望更快的收敛、非监督学习、时间问题、被认为更接近生物学的模型等。

关于你具体的问题“为什么不直接使用梯度下降?”,梯度下降可能对某些问题有效,但许多问题存在局部最小值,简单的梯度下降会陷入其中。最初的应对方法是添加一个“动量”项,这样你可能会“滚出”局部最小值;这基本上就是经典的反向传播算法。

Related Posts

使用LSTM在Python中预测未来值

这段代码可以预测指定股票的当前日期之前的值,但不能预测…

如何在gensim的word2vec模型中查找双词组的相似性

我有一个word2vec模型,假设我使用的是googl…

dask_xgboost.predict 可以工作但无法显示 – 数据必须是一维的

我试图使用 XGBoost 创建模型。 看起来我成功地…

ML Tuning – Cross Validation in Spark

我在https://spark.apache.org/…

如何在React JS中使用fetch从REST API获取预测

我正在开发一个应用程序,其中Flask REST AP…

如何分析ML.NET中多类分类预测得分数组?

我在ML.NET中创建了一个多类分类项目。该项目可以对…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注