我在Keras方面是新手,想知道如何用不同长度的(中断的)时间序列来训练LTSM。举个例子,假设有一个从第1天到第10天的连续序列,另一个是从第15天到第20天的连续序列。简单地将它们连接成一个单一序列可能会导致错误的结果。我看到有两种方法可以将它们调整到(batch_size, timesteps, output_features)
的形状:
-
用某个默认值(如0)来延长较短的序列,例如,对于上面的例子,我们会得到以下批次:
d1, ..., d10d15, ..., d20, 0, 0, 0, 0, 0
-
计算序列长度的最大公约数,将序列切成片段,并使用有状态的LSTM,例如:
d1, ..., d5d6, ..., d10reset_stated15, ..., d20
还有其他更好的解决方案吗?用完整序列训练无状态LSTM与用片段训练有状态LSTM是否等效?
回答:
你有尝试过用不同长度的输入来喂养LSTM层吗?当使用LSTM时,输入的时间序列可以是不同长度的(甚至批次大小也可以从一个批次到另一个批次不同,但显然特征的维度应该相同)。这是一个在Keras中的示例:
from keras import models, layersn_feats = 32latent_dim = 64lstm_input = layers.Input(shape=(None, n_feats))lstm_output = layers.LSTM(latent_dim)(lstm_input)model = models.Model(lstm_input, lstm_output)model.summary()
输出:
Layer (type) Output Shape Param # =================================================================input_2 (InputLayer) (None, None, 32) 0 _________________________________________________________________lstm_2 (LSTM) (None, 64) 24832 =================================================================Total params: 24,832Trainable params: 24,832Non-trainable params: 0
如你所见,输入层的第一和第二轴是None
。这意味着它们没有预先指定,可以是任意值。你可以把LSTM看作是一个循环。不管输入长度,只要有相同长度的剩余数据向量(即n_feats
),LSTM层就会处理它们。因此,如上所示,LSTM层使用的参数数量不依赖于批次大小或时间序列长度(它只依赖于输入特征向量的长度和LSTM的潜在维度)。
import numpy as np# 使用批次大小=10,时间步长=5来喂养LSTMmodel.predict(np.random.rand(10, 5, n_feats)) # 这可以工作# 使用批次大小=5,时间步长=100来喂养LSTMmodel.predict(np.random.rand(5, 100, n_feats)) # 这也可以工作
然而,根据你正在处理的具体问题,这种方法可能不适用;虽然我现在没有想到任何具体的例子,这种行为可能不合适,你应该确保所有时间序列的长度相同。