使用多个特征的RNN数据形状/格式

我正在尝试使用Python/Keras构建一个RNN。我了解如何处理单一特征的情况(t+1作为输出),但如何处理多个特征呢?

如果我有一个回归问题和一个包含几个不同特征的数据集,一个预期输出,并且我想将时间步长/窗口设置为30(如果每个步骤代表一天,那么就是一个月)——数据的形状会是什么样的?在这个例子中,我想能够预测未来n个时间段的输出。

请看下面的示例,了解这些数据会是什么样子:

enter image description here

我很难直观地理解RNN所需的最佳数据形状/格式。

此外,RNN处理具有例如500个特征和几千条记录的数据集的效果如何?

希望有人能帮助回答或指引我找到答案——到目前为止,我已经在Reddit和Cross Validated上发布了帖子,但没有得到回应 🙁

如果需要代码数据示例:

# 随机生成数据框
df = pd.DataFrame({'date': np.array([0, 1, 2, 3, 4, 5, 6, 7, 8, 9]),
                   'feature_1': np.random.randint(10, size=10),
                   'feature_2': np.random.randint(10, size=10),
                   'feature_3': np.random.randint(10, size=10),
                   'feature_4': np.random.randint(10, size=10),
                   'output': np.random.randint(10, size=10)}
                 )
# 设置日期为索引
df.index = df.date
df = df.drop('date', 1)

回答:

假设你有两个时间序列X和Y,你想使用这两个时间序列来预测X。如果我们选择时间步长为3,并且假设我们有(X1,...,Xt)(Y1,...,Yt),那么第一个样本将是:[[X1,X2,X3],[Y1,Y2,Y3]],对应的输出是:X4。第二个样本将是[[X2,X3,X4],[Y2,Y3,Y4]],输出是X5。最后一个样本将是[[Xt-3,Xt-2,Xt-1],[Yt-3,Yt-2,Yt-1]],输出是Xt

例如,在第一个样本中:首先你会将(X1,Y1)输入到网络中,然后是(X2,Y2)(X3,Y3)

以下是创建输入和输出并使用LSTM网络进行预测的代码:

import pandas as pd
import numpy as np
import keras.optimizers
from keras.models import Sequential
from keras.layers import Dense,Activation
from keras.layers import LSTM
# 随机生成数据框
df = pd.DataFrame({'date': np.array([0, 1, 2, 3, 4, 5, 6, 7, 8, 9]),
                   'feature_1': np.random.randint(10, size=10),
                   'feature_2': np.random.randint(10, size=10),
                   'feature_3': np.random.randint(10, size=10),
                   'feature_4': np.random.randint(10, size=10),
                   'output': np.random.randint(10, size=10)}
                 )
# 设置日期为索引
df.index = df.date
df = df.drop('date', 1)
nb_epoch = 10
batch_size = 10
learning_rate = 0.01
nb_units = 50
timeStep = 3
X = df[['feature_'+str(i) for i in range(1,5)]].values # 选择正确的列
sizeX = X.shape[0]-X.shape[0]%timeStep  # 选择一个是时间步长倍数的观测数量
X = X[:sizeX]
X = X.reshape(X.shape[0]/timeStep,timeStep,X.shape[1]) # 创建形状为(nb_sample,timestep,nb_features)的X
Y = df[['output']].values
Y = Y[range(3,len(Y),3)] # 选择正确的输出
model = Sequential()
model.add(LSTM(input_dim = X.shape[2],output_dim = nb_units,return_sequences = False)) # 一个带有50个单元的LSTM层
model.add(Activation("sigmoid"))
model.add(Dense(1)) # 一个作为最终层的全连接层
model.add(Activation('linear'))
KerasOptimizer = keras.optimizers.RMSprop(lr=learning_rate, rho=0.9, epsilon=1e-08, decay=0.0)
model.compile(loss="mse", optimizer=KerasOptimizer)
model.fit(X,Y,nb_epoch = nb_epoch,batch_size = batch_size)
prediction = model.predict(X)  

Related Posts

Keras Dense层输入未被展平

这是我的测试代码: from keras import…

无法将分类变量输入随机森林

我有10个分类变量和3个数值变量。我在分割后直接将它们…

如何在Keras中对每个输出应用Sigmoid函数?

这是我代码的一部分。 model = Sequenti…

如何选择类概率的最佳阈值?

我的神经网络输出是一个用于多标签分类的预测类概率表: …

在Keras中使用深度学习得到不同的结果

我按照一个教程使用Keras中的深度神经网络进行文本分…

‘MatMul’操作的输入’b’类型为float32,与参数’a’的类型float64不匹配

我写了一个简单的TensorFlow代码,但不断遇到T…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注