使用LSTM RNN洗牌训练数据

由于LSTM RNN使用之前的事件来预测当前序列,为什么我们要洗牌训练数据呢?这样做不会破坏训练数据的时间顺序吗?在经过洗牌后的训练数据上训练后,它如何仍然有效地进行预测?


回答:

一般来说,当你洗牌训练数据(一组序列)时,你洗牌的是序列被输入到RNN的顺序,而非单个序列内部的顺序。当你的网络是无状态的,这样做是可以的:

无状态情况:

网络的记忆只在序列持续期间存在。在序列B之前训练序列A并不重要,因为网络的记忆状态不会跨序列保留。

另一方面:

有状态情况:

网络的记忆会跨序列保留。在这种情况下,你不能盲目地洗牌数据并期望获得最佳结果。序列A应该在序列B之前被输入到网络中,因为A在B之前,我们希望网络在评估序列B时能够记住序列A的内容。

Related Posts

L1-L2正则化的不同系数

我想对网络的权重同时应用L1和L2正则化。然而,我找不…

使用scikit-learn的无监督方法将列表分类成不同组别,有没有办法?

我有一系列实例,每个实例都有一份列表,代表它所遵循的不…

f1_score metric in lightgbm

我想使用自定义指标f1_score来训练一个lgb模型…

通过相关系数矩阵进行特征选择

我在测试不同的算法时,如逻辑回归、高斯朴素贝叶斯、随机…

可以将机器学习库用于流式输入和输出吗?

已关闭。此问题需要更加聚焦。目前不接受回答。 想要改进…

在TensorFlow中,queue.dequeue_up_to()方法的用途是什么?

我对这个方法感到非常困惑,特别是当我发现这个令人费解的…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注