改进神经网络模型中的损失减少

以下代码用于训练一个给定数据集的神经网络模型(50,000个样本,64维)。

from keras import Sequentialfrom keras.layers import Densefrom keras.optimizers import AdamX, y = process_dataset()model = Sequential([    Dense(16, input_dim=X.shape[1], activation='relu'),    Dense(16, activation='relu'),    Dense(1, activation='sigmoid')])'''    Compile the Model'''model.compile(loss='binary_crossentropy', optimizer=Adam(lr=0.01), metrics=['accuracy'])'''    Fit the Model'''model.fit(X, y, shuffle=True, epochs=1000, batch_size=200, validation_split=0.2, verbose=2)

在开始时,你可以看到val_loss在不同轮次之间减少得非常好。

Epoch 82/1000 - 0s - loss: 0.2036 - acc: 0.9144 - val_loss: 0.2400 - val_acc: 0.8885Epoch 83/1000 - 0s - loss: 0.2036 - acc: 0.9146 - val_loss: 0.2375 - val_acc: 0.8901

当模型进行很多轮次时,损失的变化变得非常小,尤其是当轮次数增加时。

Epoch 455/1000 - 0s - loss: 0.0903 - acc: 0.9630 - val_loss: 0.1317 - val_acc: 0.9417Epoch 456/1000 - 0s - loss: 0.0913 - acc: 0.9628 - val_loss: 0.1329 - val_acc: 0.9443

请问,我有两个问题:

  1. 这种现象意味着什么?即,损失在开始时减少得非常好,但随着训练轮次的增加,减少得不多。
  2. 对此可能的解决方案是什么?

谢谢,


回答:

这是由于权重的梯度在局部(或可能是全局)最小值处收敛。可能出现这种情况的一些原因包括:

  • a) 学习率太小
  • b) 模型无法进一步成功分类你的数据,这意味着数据可能存在问题,需要进一步预处理

这里有一个更深入的解释: 神经网络权重的收敛

一些解决方案可以尝试对你的超参数进行网格搜索,例如学习率、每层的神经元数量、层数等。

Related Posts

使用LSTM在Python中预测未来值

这段代码可以预测指定股票的当前日期之前的值,但不能预测…

如何在gensim的word2vec模型中查找双词组的相似性

我有一个word2vec模型,假设我使用的是googl…

dask_xgboost.predict 可以工作但无法显示 – 数据必须是一维的

我试图使用 XGBoost 创建模型。 看起来我成功地…

ML Tuning – Cross Validation in Spark

我在https://spark.apache.org/…

如何在React JS中使用fetch从REST API获取预测

我正在开发一个应用程序,其中Flask REST AP…

如何分析ML.NET中多类分类预测得分数组?

我在ML.NET中创建了一个多类分类项目。该项目可以对…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注