我正在尝试使用Keras构建一个循环神经网络。我以这里讨论的内容为基础进行构建。
然而,就我所理解的,原始讨论中提出的解决方案中并没有“情节”的概念。让我解释一下我指的是什么。
假设你有6个实例x1,x2,x3,x4,x5,x6。给定一个大小为3的循环窗口,第一个输出在x3。我将其称为y3。因此,没有情节概念的输入-输出对看起来是这样的:
- [x1, x2, x3], [y3]
- [x2, x3, x4], [y4]
- [x3, x4, x5], [y5]
- [x4, x5, x6], [y6]
然而,我的数据有明确的边界。在这个例子中,我会有两个情节,因此训练对看起来是这样的:
- [x1, x2, x3], [y3]
- [x4, x5, x6], [y6]
我的问题是:在Keras中是否可以实现这一点?
我应该如何保持我的输入-输出对的组织?网络应该对除了x3和x6之外的所有输入都不进行预测(没有输出)。
附注:我可能会使用LSTM或经典的循环。如果有使用LSTM的解决方案,我希望能够在每个情节后重置内存。
提前感谢。
回答:
我认为可以通过退一步,重组和重塑你输入RNN模型的数据来实现这一点。尽管可能显得啰嗦,我提供以下解释:
你应该有一个X和一个y。我建议这两个都是3D的NumPy数组,其中
- array[i]访问特定的序列i
- array[i][j]访问特定序列i的特定时间步j
- array[i][j][k]访问特定序列i的特定时间步j的特定特征k(需要注意的是,对于y,k的长度将等于1,因为我们每个时间步只预测一个目标)
假设你有8个序列,3个时间步和5个特征
shape(X)# (8, 3, 5) shape(y)# (8, 3, 1)
现在假设你已经以这种方式构建了你的数据,你所需要做的就是确保X和y的训练实例以你希望的方式相互匹配。使用你的注释:
print(X[0][0])# [x1, x2, x3]print(y[0][0])# [y3]print(X[1][0])# [x4, x5, x6]print(y[1][0])# [y6]
现在假设你已经为输入到模型中的数据准备了这种(序列,时间步,特征)的3D NumPy数组结构。只需从你的X和y中删除你不想要的训练实例即可。
- [x1, x2, x3], [y3]
[x2, x3, x4], [y4][x3, x4, x5], [y5]- [x4, x5, x6], [y6]