我有10个时间序列数据文件。其中,我用5个文件训练LSTM模型,用3个文件进行验证,用2个文件进行测试。我使用了Keras的fit_generator,并为训练和验证数据框编写了一个生成器函数。但不幸的是,在预测时,初始预测值比原始目标值高很多。
另一方面,如果我对每个数据框使用model.fit,我得到了相对更好的结果。我的问题是:“对于每个数据文件都是独立的时间序列数据(例如,每个文件包含从0小时到24小时的评级),在每次迭代中对每个数据文件使用fit是否正确的方法?”
for scaled_dataset in training_list: reframed_new = series_to_supervised(scaled_dataset, n_in, n_out) values = reframed_new.values train = values # 将数据分割成输入和输出 train_X, train_y = train[:, :-1], train[:, -1] # 重塑输入为3D [样本, 时间步, 特征] train_X = train_X.reshape((train_X.shape[0], 1, train_X.shape[1])) model.fit(train_X, train_y, epochs=50, batch_size=475, validation_data=None, verbose=1, shuffle=False)
在我的代码中,训练列表包含所有5个独立的数据框。因此,在每次迭代中,我都在拟合一个模型。请问这是正确的方法吗?提前感谢您的回答。
回答:
这是我从您的问题中理解的内容:
-
您有10个不同的时间序列文件,所有文件都包含从0小时到24小时的独立数据。我的第一个问题是这些文件的顺序是什么,这意味着文件1、文件2等是否属于同一个序列?
- 如果是,您可以尝试将这些数据框连接起来,训练一个简单的预测模型,看看结果如何。
- 由于所有文件的范围都是从0小时到24小时,您可以将
batch_size
设置为文件长度。在不知道数据集结束或时间序列长度不同的情况下,生成器函数会很有用。
如果不是,您必须为不同的时间序列训练不同的模型。