我目前正在使用Keras进行LSTM的研究,并对TimeDistributed
层有一个问题。
假设我有一个TimeDistributed
层,它的输入是类似(batch_size,timesteps,num_features1)
的形式。它的输出将是类似(batch_size,timesteps,num_features2)
的形式。
但我希望输出的是类似(batch_size,num_features2)
的形式。这是可能的吗?
我的想法是将一个设置了return_sequence = True
的LSTM层与一个使用TimeDistributed
层的密集层堆叠,然后再回到接受类似(batch_size,nb_features)
输入的“经典”密集层。
提前感谢!
@隐藏人名
回答:
我不确定是否完全理解您的需求,所以我在这里提供了一个我认为您想要的网络结构。如果不是,请编辑您的问题,并提供您想要的网络草图以及每个步骤的形状。这样也更容易了解您希望通过这个网络实现什么目标。
model = sequential()# shape = (None,timesteps, num_feat1)model.add(TimeDistributed(Dense(num_feat2)))# shape = (None,timesteps, num_feat2)model.add(LSTM(1, return_sequences=True))# shape = (None, timesteps, 1)model.add(Flatten())# shape = (None, timesteps)model.add(Dense(num_outputs_desired))# shape = (None, outputs)
这是您想要的吗?这个网络结构(1)使用时间分布的密集层在每个时间步上同样地转换初始特征,(2)使用LSTM处理序列,每个步骤返回一个值,(3)使用密集层将值序列转换为所需的输出(我不知道它应该是什么,您的模型目的是什么?)。