我正在尝试使用Python/Keras构建一个RNN。我了解如何处理单一特征的情况(t+1作为输出),但如何处理多个特征呢?
如果我有一个回归问题和一个包含几个不同特征的数据集,一个预期输出,并且我想将时间步长/窗口设置为30(如果每个步骤代表一天,那么就是一个月)——数据的形状会是什么样的?在这个例子中,我想能够预测未来n个时间段的输出。
请看下面的示例,了解这些数据会是什么样子:
我很难直观地理解RNN所需的最佳数据形状/格式。
此外,RNN处理具有例如500个特征和几千条记录的数据集的效果如何?
希望有人能帮助回答或指引我找到答案——到目前为止,我已经在Reddit和Cross Validated上发布了帖子,但没有得到回应
如果需要代码数据示例:
# 随机生成数据框
df = pd.DataFrame({'date': np.array([0, 1, 2, 3, 4, 5, 6, 7, 8, 9]),
'feature_1': np.random.randint(10, size=10),
'feature_2': np.random.randint(10, size=10),
'feature_3': np.random.randint(10, size=10),
'feature_4': np.random.randint(10, size=10),
'output': np.random.randint(10, size=10)}
)
# 设置日期为索引
df.index = df.date
df = df.drop('date', 1)
回答:
假设你有两个时间序列X和Y,你想使用这两个时间序列来预测X。如果我们选择时间步长为3,并且假设我们有(X1,...,Xt)
和(Y1,...,Yt)
,那么第一个样本将是:[[X1,X2,X3],[Y1,Y2,Y3]]
,对应的输出是:X4
。第二个样本将是[[X2,X3,X4],[Y2,Y3,Y4]]
,输出是X5
。最后一个样本将是[[Xt-3,Xt-2,Xt-1],[Yt-3,Yt-2,Yt-1]]
,输出是Xt
。
例如,在第一个样本中:首先你会将(X1,Y1)
输入到网络中,然后是(X2,Y2)
和(X3,Y3)
。
以下是创建输入和输出并使用LSTM网络进行预测的代码:
import pandas as pd
import numpy as np
import keras.optimizers
from keras.models import Sequential
from keras.layers import Dense,Activation
from keras.layers import LSTM
# 随机生成数据框
df = pd.DataFrame({'date': np.array([0, 1, 2, 3, 4, 5, 6, 7, 8, 9]),
'feature_1': np.random.randint(10, size=10),
'feature_2': np.random.randint(10, size=10),
'feature_3': np.random.randint(10, size=10),
'feature_4': np.random.randint(10, size=10),
'output': np.random.randint(10, size=10)}
)
# 设置日期为索引
df.index = df.date
df = df.drop('date', 1)
nb_epoch = 10
batch_size = 10
learning_rate = 0.01
nb_units = 50
timeStep = 3
X = df[['feature_'+str(i) for i in range(1,5)]].values # 选择正确的列
sizeX = X.shape[0]-X.shape[0]%timeStep # 选择一个是时间步长倍数的观测数量
X = X[:sizeX]
X = X.reshape(X.shape[0]/timeStep,timeStep,X.shape[1]) # 创建形状为(nb_sample,timestep,nb_features)的X
Y = df[['output']].values
Y = Y[range(3,len(Y),3)] # 选择正确的输出
model = Sequential()
model.add(LSTM(input_dim = X.shape[2],output_dim = nb_units,return_sequences = False)) # 一个带有50个单元的LSTM层
model.add(Activation("sigmoid"))
model.add(Dense(1)) # 一个作为最终层的全连接层
model.add(Activation('linear'))
KerasOptimizer = keras.optimizers.RMSprop(lr=learning_rate, rho=0.9, epsilon=1e-08, decay=0.0)
model.compile(loss="mse", optimizer=KerasOptimizer)
model.fit(X,Y,nb_epoch = nb_epoch,batch_size = batch_size)
prediction = model.predict(X)