我试图将可变大小的序列输入到LSTM中。因此,我使用了一个生成器和批次大小为1。
我有一个(sequence_length,)
的输入张量,它被嵌入,并输出一个(batch_size, sequence_length, embeding_dimension)
的张量。
与此同时,我还有另一组输入数据,大小为(sequence_length, features)
,即(None, 10)
,我想将其重塑为(batch_size, sequence_length, features)
,即(None, None, 10)
。
我尝试使用Keras的Reshape层,目标形状为(-1, 10)
,这应该等同于将(None, 10)
展开为(None, None, 10)
,但我得到的是一个(None, 1, 10)
的张量,这使得无法将此张量与嵌入的数据进行连接,以便输入到LSTM中。
我的代码如下:
cluster = Input(shape=(None,))embeded = Embedding(115, 25, input_length = None)(cluster)features = Input(shape=(10,)) #variablereshape = Reshape(target_shape=(-1, 10))(features)merged = Concatenate(axis=-1)([embeded, reshape])[...]model.fit_generator(generator(), steps_per_epoch=1, epochs=5)
输出如下:
[...]ValueError: A `Concatenate` layer requires inputs with matching shapes except for the concat axis. Got inputs shapes: [(None, None, 25), (None, 1, 10)]
如何在Keras中将(None, 10)
重塑为(None, None, 10)
的张量?
回答:
在Keras中这样做不会比在NumPy中进行重塑有任何优势。你可以这样做:
# 在传入Keras之前进行重塑features = Input(shape=(None, 10))
在你拥有实际的batch_size
和sequence_length
时,在传入Keras之前进行重塑。