以下代码用于训练一个给定数据集的神经网络模型(50,000个样本,64维)。
from keras import Sequentialfrom keras.layers import Densefrom keras.optimizers import AdamX, y = process_dataset()model = Sequential([ Dense(16, input_dim=X.shape[1], activation='relu'), Dense(16, activation='relu'), Dense(1, activation='sigmoid')])''' Compile the Model'''model.compile(loss='binary_crossentropy', optimizer=Adam(lr=0.01), metrics=['accuracy'])''' Fit the Model'''model.fit(X, y, shuffle=True, epochs=1000, batch_size=200, validation_split=0.2, verbose=2)
在开始时,你可以看到val_loss
在不同轮次之间减少得非常好。
Epoch 82/1000 - 0s - loss: 0.2036 - acc: 0.9144 - val_loss: 0.2400 - val_acc: 0.8885Epoch 83/1000 - 0s - loss: 0.2036 - acc: 0.9146 - val_loss: 0.2375 - val_acc: 0.8901
当模型进行很多轮次时,损失的变化变得非常小,尤其是当轮次数增加时。
Epoch 455/1000 - 0s - loss: 0.0903 - acc: 0.9630 - val_loss: 0.1317 - val_acc: 0.9417Epoch 456/1000 - 0s - loss: 0.0913 - acc: 0.9628 - val_loss: 0.1329 - val_acc: 0.9443
请问,我有两个问题:
- 这种现象意味着什么?即,损失在开始时减少得非常好,但随着训练轮次的增加,减少得不多。
- 对此可能的解决方案是什么?
谢谢,
回答:
这是由于权重的梯度在局部(或可能是全局)最小值处收敛。可能出现这种情况的一些原因包括:
- a) 学习率太小
- b) 模型无法进一步成功分类你的数据,这意味着数据可能存在问题,需要进一步预处理
这里有一个更深入的解释: 神经网络权重的收敛
一些解决方案可以尝试对你的超参数进行网格搜索,例如学习率、每层的神经元数量、层数等。