卷积神经网络是否存在梯度消失问题?

我记得在某处读到过,卷积神经网络在层数增加时,不像标准的Sigmoid神经网络那样严重受到梯度消失问题的困扰。但我一直没能找到具体的解释原因。

卷积神经网络真的不受这个问题的影响吗?还是我错了,这取决于激活函数?我一直使用的是整流线性单元(ReLU),所以我从未在卷积神经网络中测试过Sigmoid单元。


回答:

卷积神经网络(像标准的Sigmoid神经网络一样)确实会受到梯度消失问题的困扰。克服梯度消失问题的最推荐方法包括:

  • 逐层预训练
  • 选择激活函数

你可能会注意到,解决计算机视觉问题的最先进深度神经网络(如ImageNet的获胜者)在网络的前几层使用了卷积层,但这并不是解决梯度消失问题的关键。关键通常是逐层贪婪地训练网络。当然,使用卷积层还有其他几个重要的好处。特别是在输入尺寸较大的视觉问题中(如图像的像素),推荐在前几层使用卷积层,因为它们比全连接层参数更少,这样就不会在第一层就拥有数十亿的参数(这会使你的网络容易过拟合)。

然而,已经有研究(如这篇论文)表明,在多个任务中,使用整流线性单元(ReLU)可以缓解梯度消失问题(相对于传统的Sigmoid函数)。

Related Posts

使用LSTM在Python中预测未来值

这段代码可以预测指定股票的当前日期之前的值,但不能预测…

如何在gensim的word2vec模型中查找双词组的相似性

我有一个word2vec模型,假设我使用的是googl…

dask_xgboost.predict 可以工作但无法显示 – 数据必须是一维的

我试图使用 XGBoost 创建模型。 看起来我成功地…

ML Tuning – Cross Validation in Spark

我在https://spark.apache.org/…

如何在React JS中使用fetch从REST API获取预测

我正在开发一个应用程序,其中Flask REST AP…

如何分析ML.NET中多类分类预测得分数组?

我在ML.NET中创建了一个多类分类项目。该项目可以对…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注