我在 Keras 中编写一个序列到序列的模型。不知为何,当我尝试在下面的函数中定义模型时:
def define_GRU_models(encoder_input_dim, output_dim, activation, n_units):# define training encoder ############################# layer 1encoder_inputs = Input(shape=encoder_input_dim)l1_encoder = GRU(n_units, name='l1_encoder', return_sequences=True, return_state=True)l1_encoder_outputs, l1_encoder_state = l1_encoder(encoder_inputs)# layer 2l2_encoder = GRU(n_units, name='l2_encoder', return_state=True)l2_encoder_outputs, l2_encoder_state = l2_encoder(l1_encoder_outputs)# define training decoder ############################# layer 1decoder_inputs = Input(shape=(None, output_dim))l1_decoder_gru = GRU(int(n_units/2), name='l1_decoder_gru', return_sequences=True, return_state=False)l1_decoder_outputs, _ = l1_decoder_gru(decoder_inputs)# layer 2l2_decoder_gru = GRU(n_units, name='l2_decoder_gru', return_sequences=True, return_state=False)l2_decoder_outputs, _ = l2_decoder_gru(l1_decoder_outputs, initial_state=l1_encoder_state)# layer 3l3_decoder_gru = GRU(n_units, name='l3_decoder_gru', return_sequences=True, return_state=False)l3_decoder_outputs, _ = l3_decoder_gru(l2_decoder_outputs, initial_state=l2_encoder_state)# layer 4l4_decoder_gru = GRU(int(n_units/2), name='l4_decoder_gru', return_state=False )l4_decoder_outputs, _ = l4_decoder_gru(l3_decoder_outputs)decoder_dense = Dense(output_dim, name='decoder_dense', activation=activation)decoder_outputs = decoder_dense(l4_decoder_outputs)model = Model([encoder_inputs, decoder_inputs], decoder_outputs)return model
我遇到了这个错误:
Tensor objects are not iterable when eager execution is not enabled. To iterate over this tensor use tf.map_fn.
对于这一行(第一个解码器层):
l1_decoder_outputs, _ = l1_decoder_gru(decoder_inputs)
我似乎在其他地方找不到解决方案。我做错了什么?因为这似乎与 Keras 的示例兼容。
顺便提一下,我的函数输入是:
(168, 12), 24, 'softmax', 128
回答:
问题在于 'l1_decoder_gru'
层不返回其状态(即 return_state=False
)。它只有一个输出张量,被赋值给 l1_decoder_outputs
。因此,为了解决这个问题,可以在赋值的左边删除 , _
部分:
l1_decoder_outputs = l1_decoder_gru(decoder_inputs)
或者,您可以将 'l1_decoder_gru'
层的 return_state
参数设置为 True
(当然,如果这样做有意义,并且您可能在模型的另一部分需要这个层的状态)。同样的问题也适用于您定义和使用的其他 GRU 层。