使用Keras训练不同长度时间序列的LTSM

我在Keras方面是新手,想知道如何用不同长度的(中断的)时间序列来训练LTSM。举个例子,假设有一个从第1天到第10天的连续序列,另一个是从第15天到第20天的连续序列。简单地将它们连接成一个单一序列可能会导致错误的结果。我看到有两种方法可以将它们调整到(batch_size, timesteps, output_features)的形状:

  1. 用某个默认值(如0)来延长较短的序列,例如,对于上面的例子,我们会得到以下批次:

    d1, ..., d10d15, ..., d20, 0, 0, 0, 0, 0
  2. 计算序列长度的最大公约数,将序列切成片段,并使用有状态的LSTM,例如:

    d1, ..., d5d6, ..., d10reset_stated15, ..., d20

还有其他更好的解决方案吗?用完整序列训练无状态LSTM与用片段训练有状态LSTM是否等效?


回答:

你有尝试过用不同长度的输入来喂养LSTM层吗?当使用LSTM时,输入的时间序列可以是不同长度的(甚至批次大小也可以从一个批次到另一个批次不同,但显然特征的维度应该相同)。这是一个在Keras中的示例:

from keras import models, layersn_feats = 32latent_dim = 64lstm_input = layers.Input(shape=(None, n_feats))lstm_output = layers.LSTM(latent_dim)(lstm_input)model = models.Model(lstm_input, lstm_output)model.summary()

输出:

Layer (type)                 Output Shape              Param #   =================================================================input_2 (InputLayer)         (None, None, 32)          0         _________________________________________________________________lstm_2 (LSTM)                (None, 64)                24832     =================================================================Total params: 24,832Trainable params: 24,832Non-trainable params: 0

如你所见,输入层的第一和第二轴是None。这意味着它们没有预先指定,可以是任意值。你可以把LSTM看作是一个循环。不管输入长度,只要有相同长度的剩余数据向量(即n_feats),LSTM层就会处理它们。因此,如上所示,LSTM层使用的参数数量不依赖于批次大小或时间序列长度(它只依赖于输入特征向量的长度和LSTM的潜在维度)。

import numpy as np# 使用批次大小=10,时间步长=5来喂养LSTMmodel.predict(np.random.rand(10, 5, n_feats))   # 这可以工作# 使用批次大小=5,时间步长=100来喂养LSTMmodel.predict(np.random.rand(5, 100, n_feats))  # 这也可以工作

然而,根据你正在处理的具体问题,这种方法可能不适用;虽然我现在没有想到任何具体的例子,这种行为可能不合适,你应该确保所有时间序列的长度相同。

Related Posts

L1-L2正则化的不同系数

我想对网络的权重同时应用L1和L2正则化。然而,我找不…

使用scikit-learn的无监督方法将列表分类成不同组别,有没有办法?

我有一系列实例,每个实例都有一份列表,代表它所遵循的不…

f1_score metric in lightgbm

我想使用自定义指标f1_score来训练一个lgb模型…

通过相关系数矩阵进行特征选择

我在测试不同的算法时,如逻辑回归、高斯朴素贝叶斯、随机…

可以将机器学习库用于流式输入和输出吗?

已关闭。此问题需要更加聚焦。目前不接受回答。 想要改进…

在TensorFlow中,queue.dequeue_up_to()方法的用途是什么?

我对这个方法感到非常困惑,特别是当我发现这个令人费解的…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注