我使用keras构建了一个简单的LSTM模型,并按照以下方式进行了训练:
model = Sequential()model.add(LSTM(activation='tanh',input_dim=6,output_dim=50,return_sequences=False))model.add(Dense(output_dim=1,activation = 'sigmoid'))model.compile(loss='binary_crossentropy', optimizer =optimizers.Adam(lr = 0.01),metrics=['accuracy'])model.fit(X_train,y_train,batch_size=256,nb_epoch=1000,validation_data = (X_test,y_test))model.save('model_params.h5')
模型几乎已经收敛。因此,我想通过使用更小的学习率(即0.001)恢复训练来对模型进行微调。我该如何实现这一点?
回答:
新回答
如果你的优化器有一个lr
属性,并且这个属性是一个张量,你可以用以下方式更改它:
keras.backend.set_value(model.optimizer.lr, new_value)
旧回答,带有一些副作用
你只需要再次编译模型:
model.compile(loss='binary_crossentropy', optimizer= optimizers.Adam(lr=0.001),...)
但通常情况下,Adam
是一个非常好的优化器,不需要这些更改。它可以自行找到合适的方法。
当你使用新的优化器重新编译时,训练很可能会出现发散的情况。优化器需要几轮训练来调整自己,这是很正常的现象。