理解Keras中LSTM的input_shape参数

我试图使用Keras文档中描述的示例,名为“用于序列分类的堆叠LSTM”(见下面的代码),但无法理解在我的数据背景下input_shape参数的用法。

我的输入是一个矩阵,包含25个可能字符的序列,这些字符被编码为整数,并填充到最大长度31。因此,我的x_train的形状是(1085420, 31),这意味着(n_observations, sequence_length)

from keras.models import Sequentialfrom keras.layers import LSTM, Denseimport numpy as npdata_dim = 16timesteps = 8num_classes = 10# expected input data shape: (batch_size, timesteps, data_dim)model = Sequential()model.add(LSTM(32, return_sequences=True,               input_shape=(timesteps, data_dim)))  # returns a sequence of vectors of dimension 32model.add(LSTM(32, return_sequences=True))  # returns a sequence of vectors of dimension 32model.add(LSTM(32))  # return a single vector of dimension 32model.add(Dense(10, activation='softmax'))model.compile(loss='categorical_crossentropy',              optimizer='rmsprop',              metrics=['accuracy'])# Generate dummy training datax_train = np.random.random((1000, timesteps, data_dim))y_train = np.random.random((1000, num_classes))# Generate dummy validation datax_val = np.random.random((100, timesteps, data_dim))y_val = np.random.random((100, num_classes))model.fit(x_train, y_train,          batch_size=64, epochs=5,          validation_data=(x_val, y_val))

在这个代码中,x_train的形状是(1000, 8, 16),表示1000个包含8个包含16个元素的数组的数组。我完全不知道这些是什么以及我的数据如何达到这种形状。

查看了Keras文档和各种教程以及问答,我似乎遗漏了一些显而易见的东西。有人能给我一些提示,让我知道该寻找什么吗?

谢谢你的帮助!


回答:

因此,输入到LSTM的数据应该具有(nb_of_samples, seq_len, features)的形状。在你的情况下——由于你的特征向量仅包含一个整数——你应该调整你的X_train的形状为(1085420, 31, 1)。由于这种表示不适合神经网络,你应该选择以下一种方式:

  1. 将你的表示改为独热编码——然后你的输出形状应该是(1085420, 31, 25)

  2. 使用Embedding层,并保持(1085420, 31)的形状。

Related Posts

L1-L2正则化的不同系数

我想对网络的权重同时应用L1和L2正则化。然而,我找不…

使用scikit-learn的无监督方法将列表分类成不同组别,有没有办法?

我有一系列实例,每个实例都有一份列表,代表它所遵循的不…

f1_score metric in lightgbm

我想使用自定义指标f1_score来训练一个lgb模型…

通过相关系数矩阵进行特征选择

我在测试不同的算法时,如逻辑回归、高斯朴素贝叶斯、随机…

可以将机器学习库用于流式输入和输出吗?

已关闭。此问题需要更加聚焦。目前不接受回答。 想要改进…

在TensorFlow中,queue.dequeue_up_to()方法的用途是什么?

我对这个方法感到非常困惑,特别是当我发现这个令人费解的…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注