我想了解RNN,特别是LSTM在Keras和TensorFlow中如何处理多维输入。我指的是输入形状为(batch_size, timesteps, input_dim),其中input_dim > 1。
我认为下面的图片很好地说明了当input_dim = 1时LSTM的概念。
这是否意味着如果input_dim > 1,那么x就不再是一个单一的值,而是一个数组?但如果是这样的话,权重也会变成数组,与x具有相同的形状,再加上上下文吗?
回答:
Keras创建了一个计算图,它会按照你底部图片中的序列逐个特征执行(但对于所有单元)。这意味着状态值C始终是一个标量,每个单元一个。它不是一次处理所有特征,而是同时处理单元,并分别处理特征。
import keras.models as kemimport keras.layers as kelmodel = kem.Sequential()lstm = kel.LSTM(units, input_shape=(timesteps, features))model.add(lstm)model.summary()free_params = (4 * features * units) + (4 * units * units) + (4 * num_units)print('free_params ', free_params)print('kernel_c', lstm.kernel_c.shape)print('bias_c', lstm.bias_c .shape)
其中4
代表你底部图片中f, i, c, 和o内部路径的每一个。第一个项是内核的权重数量,第二个项是循环内核的权重数量,最后一个项是偏置的权重数量,如果应用的话。对于
units = 1timesteps = 1features = 1
我们看到
Layer (type) Output Shape Param #=================================================================lstm_1 (LSTM) (None, 1) 12=================================================================Total params: 12.0Trainable params: 12Non-trainable params: 0.0_________________________________________________________________num_params 12kernel_c (1, 1)bias_c (1,)
而对于
units = 1timesteps = 1features = 2
我们看到
Layer (type) Output Shape Param #=================================================================lstm_1 (LSTM) (None, 1) 16=================================================================Total params: 16.0Trainable params: 16Non-trainable params: 0.0_________________________________________________________________num_params 16kernel_c (2, 1)bias_c (1,)
其中bias_c
是状态C输出形状的代理。请注意,关于单元内部制作的不同实现有所不同。详细信息在这里(http://deeplearning.net/tutorial/lstm.html),默认实现使用了方程7。希望这对你有帮助。