多对多LSTM模型在不同样本上的应用

我最近开始学习如何为多变量时间序列数据构建LSTM模型。我已经查看了这里这里,了解如何填充序列并实现多对多LSTM模型。我创建了一个数据框来测试模型,但总是遇到下面的错误。

d = {'ID':['a12', 'a12','a12','a12','a12','b33','b33','b33','b33','v55','v55','v55','v55','v55','v55'], 'Exp_A':[2.2,2.2,2.2,2.2,2.2,3.1,3.1,3.1,3.1,1.5,1.5,1.5,1.5,1.5,1.5],      'Exp_B':[2.4,2.4,2.4,2.4,2.4,1.2,1.2,1.2,1.2,1.5,1.5,1.5,1.5,1.5,1.5],      'A':[0,0,1,0,1,0,1,0,1,0,1,1,1,0,1], 'B':[0,0,1,1,1,0,0,1,1,1,0,0,1,0,1],     'Time_Interval': ['11:00:00', '11:10:00', '11:20:00', '11:30:00', '11:40:00',                '11:00:00', '11:10:00', '11:20:00', '11:30:00',                '11:00:00', '11:10:00', '11:20:00', '11:30:00', '11:40:00', '11:50:00']}df = pd.DataFrame(d)df.set_index('Time_Interval', inplace=True)

我尝试使用蛮力方法进行填充:

from keras.preprocessing.sequence import pad_sequencesx1 = df['A'][df['ID']== 'a12']x2 = df['A'][df['ID']== 'b33']x3 = df['A'][df['ID']== 'v55']mx = df['ID'].size().max() # 查找最大组seq1 = [x1, x2, x3]padded1 = np.array(pad_sequences(seq1, maxlen=6, dtype='float32')).reshape(-1,mx,1)

以类似的方式,我为每个特征创建了padded2padded3padded4

padded_data = np.dstack((padded1, padded1, padded3, padded4))padded_data.shape = (3, 6, 4)padded_dataarray([[[0. , 0. , 0. , 0. ],        [0. , 0. , 2.2, 2.4],        [0. , 0. , 2.2, 2.4],        [1. , 1. , 2.2, 2.4],        [0. , 0. , 2.2, 2.4],        [1. , 1. , 2.2, 2.4]],       [[0. , 0. , 0. , 0. ],        [0. , 0. , 0. , 0. ],        [0. , 0. , 3.1, 1.2],        [1. , 1. , 3.1, 1.2],        [0. , 0. , 3.1, 1.2],        [1. , 1. , 3.1, 1.2]],       [[0. , 0. , 1.5, 1.5],        [1. , 1. , 1.5, 1.5],        [1. , 1. , 1.5, 1.5],        [1. , 1. , 1.5, 1.5],        [0. , 0. , 1.5, 1.5],        [1. , 1. , 1.5, 1.5]]], dtype=float32)

编辑

#分成训练/测试train = pad_1[:2]   # 用前两个样本进行训练。test = pad_1[-1:]    train_X = train[:,:-1]  # 一步预测。train_y = train[:,1:]test_X = test[:,:-1]  # 用最后一个样本进行测试test_y = test[:,1:]# 检查形状print(train_X.shape, train_y.shape, test_X.shape, test_y.shape)#(2, 5, 4) (2, 5, 4) (1, 5, 4) (1, 5, 4)# 设计网络model = Sequential()model.add(Masking(mask_value=0., input_shape=(train.shape[1], train.shape[2])))model.add(LSTM(32, input_shape=(train.shape[1], train.shape[2]), return_sequences=True))model.add(Dense(4))model.compile(loss='mae', optimizer='adam', metrics=['accuracy'])model.summary()# 拟合网络history = model.fit(train, test, epochs=300, validation_data=(test_X, test_y), verbose=2, shuffle=False)

[![enter image description here][3]][3]

所以我的问题是:

  1. 肯定有更有效的数据转换方法,对吗?
  2. 假设我想对未来序列进行单步预测,我有

第一个时间步 = array([[[0.5 , 0.9 , 2.5, 3.5]]], dtype=float32)其中第一个时间步是序列的一个单一“帧”。如何调整模型以纳入这个?


回答:

为了解决错误,请从LSTM层的参数中移除return_sequence=True(因为在你定义的这种架构中,你只需要最后一层的输出),并且简单地使用train[:, -1]test[:, -1](而不是train[:, -1:]test[:, -1:])来提取标签(即移除:会导致第二轴被删除,从而使标签形状与模型的输出形状一致)。

顺便提一下,将Dense层包装在TimeDistributed层内是多余的,因为Dense层是在最后一个轴上应用的


更新:至于新的问题,要么填充只有一个时间步的输入序列,使其形状为(5,4),要么将第一层的输入形状(即Masking)设置为input_shape=(None, train.shape[2]),这样模型就可以处理不同长度的输入。

Related Posts

为什么我们在K-means聚类方法中使用kmeans.fit函数?

我在一个视频中使用K-means聚类技术,但我不明白为…

如何获取Keras中ImageDataGenerator的.flow_from_directory函数扫描的类名?

我想制作一个用户友好的GUI图像分类器,用户只需指向数…

如何查看每个词的tf-idf得分

我试图了解文档中每个词的tf-idf得分。然而,它只返…

如何修复 ‘ValueError: Found input variables with inconsistent numbers of samples: [32979, 21602]’?

我在制作一个用于情感分析的逻辑回归模型时遇到了这个问题…

如何向神经网络输入两个不同大小的输入?

我想向神经网络输入两个数据集。第一个数据集(元素)具有…

逻辑回归与机器学习有何关联

我们正在开会讨论聘请一位我们信任的顾问来做机器学习。一…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注