我想对LSTM模型的架构做一些调整,使其能够接受与全连接方法相同的扁平化输入。
来自Keras示例的工作DNN模型
相同问题但尝试使用LSTM(仍有语法错误)
def kaggle_LSTM_model(): model = Sequential() model.add(LSTM(128, input_shape=(x_train.shape[1:]), activation='relu', return_sequences=True)) # return_sequences=True的作用是什么? model.add(Dropout(0.2)) model.add(Dense(32, activation='relu')) model.add(Dropout(0.2)) model.add(Dense(10, activation='softmax')) opt = tf.keras.optimizers.Adam(lr=1e-3, decay=1e-5) model.compile(loss='sparse_categorical_crossentropy', optimizer=opt, metrics=['accuracy']) return modelmodel_kaggle_LSTM = kaggle_LSTM_model()# fit the modelmodel_kaggle_LSTM.fit(x_train, y_train, validation_data=(x_test, y_test), epochs=10, verbose=2)# evaluate the modelscores = model_kaggle_LSTM.evaluate(x_test, y_test, verbose=0)
问题在这里:
model.add(LSTM(128, input_shape=(x_train.shape[1:]), activation='relu', return_sequences=True))
ValueError: 输入0与层lstm_17不兼容:预期ndim=3,发现ndim=2
如果我回到不扁平化x_train和y_train的状态,它就可以工作。然而,我希望这只是另一种模型选择,可以使用相同的预处理输入。我以为传递shape[1:]会有效,因为这是真正的扁平化输入形状。我确定这是关于维度的问题,但我花了一个小时调整和调试后也没有解决,虽然我确实发现不将28×28扁平化为784是可行的,但我不知道为什么它会工作。非常感谢!
作为额外的奖励,如果能提供一个示例,展示如何在1D(784,)或2D(28, 28)下使用DNN或LSTM模型,那就最好了。
回答:
RNN层如LSTM是为序列处理设计的(即一系列向量,其出现顺序很重要)。你可以从上到下看一张图片,并将每一行像素视为一个向量。因此,图片可以被视为一系列向量,可以输入到RNN层。因此,根据这个描述,你应该期望RNN层接受形状为(sequence_length, number_of_features)
的输入。这就是为什么当你以原始形状(28,28)
将图片输入到LSTM网络时,它能工作的原因。
现在,如果你坚持要将扁平化的图片,即形状为(784,)
的图片输入到LSTM模型中,你至少有两种选择:你可以将其视为长度为一的序列,即(1, 748)
,这并不太合理;或者你可以添加一个Reshape
层到你的模型中,将输入重新调整回适合LSTM层输入形状的原始形状,像这样:
from keras.layers import Reshapedef kaggle_LSTM_model(): model = Sequential() model.add(Reshape((28,28), input_shape=x_train.shape[1:])) # 其余部分相同...