Keras: 堆叠多个LSTM层

我有一个正常工作的网络如下:

output = LSTM(8)(output)output = Dense(2)(output)

现在对于同一模型,我尝试像下面这样堆叠几个LSTM层:

output = LSTM(8)(output, return_sequences=True)output = LSTM(8)(output)output = Dense(2)(output)

但我遇到了以下错误:

TypeError                                 Traceback (most recent call last)<ipython-input-2-0d0ced2c7417> in <module>()     39      40 output = Concatenate(axis=2)([leftOutput,rightOutput])---> 41 output = LSTM(8)(output, return_sequences=True)     42 output = LSTM(8)(output)     43 output = Dense(2)(output)/usr/local/lib/python3.4/dist-packages/keras/layers/recurrent.py in __call__(self, inputs, initial_state, constants, **kwargs)    480     481         if initial_state is None and constants is None:--> 482             return super(RNN, self).__call__(inputs, **kwargs)    483     484         # If any of `initial_state` or `constants` are specified and are Keras/usr/local/lib/python3.4/dist-packages/keras/engine/topology.py in __call__(self, inputs, **kwargs)    601     602             # Actually call the layer, collecting output(s), mask(s), and shape(s).--> 603             output = self.call(inputs, **kwargs)    604             output_mask = self.compute_mask(inputs, previous_mask)    605 TypeError: call() got an unexpected keyword argument 'return_sequences'

这很令人困惑,因为根据Keras文档,return_sequences是一个有效的参数:https://keras.io/layers/recurrent/#lstm

我在这里做错了什么?谢谢!


回答:

问题在于return_sequences应该作为参数传递给层构造函数,而不是层调用。将代码更改为:

output = LSTM(8, return_sequences=True)(output)

解决了这个问题。

Related Posts

Keras Dense层输入未被展平

这是我的测试代码: from keras import…

无法将分类变量输入随机森林

我有10个分类变量和3个数值变量。我在分割后直接将它们…

如何在Keras中对每个输出应用Sigmoid函数?

这是我代码的一部分。 model = Sequenti…

如何选择类概率的最佳阈值?

我的神经网络输出是一个用于多标签分类的预测类概率表: …

在Keras中使用深度学习得到不同的结果

我按照一个教程使用Keras中的深度神经网络进行文本分…

‘MatMul’操作的输入’b’类型为float32,与参数’a’的类型float64不匹配

我写了一个简单的TensorFlow代码,但不断遇到T…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注