使用LSTM和CNN进行时间序列分类的Keras故障排除

我一直在尝试复制之前关于结合LSTM和CNN的问题:如何在时间序列分类中结合LSTM和CNN

然而,出于某种原因,我的val_accuracy从第一个epoch开始就停留在0.4166。

有趣的是,无论模型架构如何,这个值大致相同。这让我觉得某些地方出了问题,但我不知道从哪里开始排查故障。

关于数据的一些背景信息:

  1. 多变量时间序列数据(5个时间步 x 20个特征),有3个可能的类别。

  2. 训练/验证/测试集的输入形状分别为(180000, 5, 20)/(60000, 5, 20)/(60000, 5, 20)。

  3. X训练集使用sklearn的StandardScaler进行了标准化,然后在验证和测试集上进行了转换。y标签进行了独热编码。

使用LSTM和CNN的示例模型:

model = keras.Sequential()model.add(keras.layers.LSTM(200, return_sequences=True,                             input_shape=(X_train_scaled.shape[1], X_train_scaled.shape[2]) ))model.add(keras.layers.Conv1D(200, kernel_size=3, activation = 'relu'))model.add(keras.layers.GlobalMaxPooling1D())model.add(keras.layers.Dense(100))model.add(keras.layers.Dense(y_train.shape[1], activation='softmax'))model.compile(loss='categorical_crossentropy', optimizer='sgd', metrics=['acc'])
  1. 模型fit函数的输出:
Epoch 1/202828/2828 [==============================] - 115s 40ms/step - loss: 1.0861 - acc: 0.4100 - val_loss: 1.0836 - val_acc: 0.4166Epoch 2/202828/2828 [==============================] - 108s 38ms/step - loss: 1.0837 - acc: 0.4164 - val_loss: 1.0838 - val_acc: 0.4166Epoch 3/202828/2828 [==============================] - 114s 40ms/step - loss: 1.0828 - acc: 0.4184 - val_loss: 1.0833 - val_acc: 0.4165Epoch 4/202828/2828 [==============================] - 111s 39ms/step - loss: 1.0830 - acc: 0.4175 - val_loss: 1.0837 - val_acc: 0.4166Epoch 5/202828/2828 [==============================] - 74s 26ms/step - loss: 1.0834 - acc: 0.4161 - val_loss: 1.0835 - val_acc: 0.4164

编辑:在更仔细地查看我的数据后,我现在有这样的结果:

Epoch 1/202828/2828 [==============================] - 129s 45ms/step - loss: 0.9560 - acc: 0.5143 - val_loss: 0.9044 - val_acc: 0.5479Epoch 2/202828/2828 [==============================] - 131s 46ms/step - loss: 0.8977 - acc: 0.5520 - val_loss: 0.8937 - val_acc: 0.5527Epoch 3/202828/2828 [==============================] - 116s 41ms/step - loss: 0.8887 - acc: 0.5559 - val_loss: 0.8982 - val_acc: 0.5519Epoch 4/202828/2828 [==============================] - 95s 33ms/step - loss: 0.8820 - acc: 0.5616 - val_loss: 0.8834 - val_acc: 0.5606Epoch 5/202828/2828 [==============================] - 100s 35ms/step - loss: 0.8786 - acc: 0.5624 - val_loss: 0.8823 - val_acc: 0.5580Epoch 6/202828/2828 [==============================] - 82s 29ms/step - loss: 0.8728 - acc: 0.5661 - val_loss: 0.8797 - val_acc: 0.5628Epoch 7/202828/2828 [==============================] - 120s 42ms/step - loss: 0.8723 - acc: 0.5679 - val_loss: 0.8744 - val_acc: 0.5677Epoch 8/202828/2828 [==============================] - 158s 56ms/step - loss: 0.8686 - acc: 0.5670 - val_loss: 0.8733 - val_acc: 0.5679Epoch 9/202828/2828 [==============================] - 146s 51ms/step - loss: 0.8646 - acc: 0.5714 - val_loss: 0.8764 - val_acc: 0.5667Epoch 10/202828/2828 [==============================] - 134s 47ms/step - loss: 0.8632 - acc: 0.5720 - val_loss: 0.8715 - val_acc: 0.5701Epoch 11/202828/2828 [==============================] - 141s 50ms/step - loss: 0.8612 - acc: 0.5734 - val_loss: 0.8721 - val_acc: 0.5694Epoch 12/202828/2828 [==============================] - 151s 53ms/step - loss: 0.8582 - acc: 0.5753 - val_loss: 0.8690 - val_acc: 0.5713Epoch 13/202828/2828 [==============================] - 137s 49ms/step - loss: 0.8554 - acc: 0.5792 - val_loss: 0.8694 - val_acc: 0.5699Epoch 14/202828/2828 [==============================] - 121s 43ms/step - loss: 0.8541 - acc: 0.5779 - val_loss: 0.8709 - val_acc: 0.5691Epoch 15/202828/2828 [==============================] - 134s 47ms/step - loss: 0.8476 - acc: 0.5826 - val_loss: 0.8643 - val_acc: 0.5766Epoch 16/202828/2828 [==============================] - 137s 48ms/step - loss: 0.8453 - acc: 0.5838 - val_loss: 0.8664 - val_acc: 0.5742Epoch 17/202828/2828 [==============================] - 152s 54ms/step - loss: 0.8409 - acc: 0.5872 - val_loss: 0.8716 - val_acc: 0.5683Epoch 18/202828/2828 [==============================] - 150s 53ms/step - loss: 0.8391 - acc: 0.5892 - val_loss: 0.8663 - val_acc: 0.5726Epoch 19/202828/2828 [==============================] - 133s 47ms/step - loss: 0.8341 - acc: 0.5920 - val_loss: 0.8687 - val_acc: 0.5766Epoch 20/202828/2828 [==============================] - 117s 41ms/step - loss: 0.8331 - acc: 0.5913 - val_loss: 0.8643 - val_acc: 0.5764

回答:

你尝试调整模型架构的做法是好的,但你遇到的问题很可能在于数据集的构建方式。

你得到的恒定准确率很可能是由于网络只预测了一个类别(实际上,你的某个类别目标分布为41%)。

我的建议是关注数据,而不是模型的架构。从100个单元切换到200个单元并不会解决你的问题;相反,我建议你尝试默认使用’adam’优化器,并微调学习率。

话虽如此,考虑到你的问题,你用于这种分类的时间步是否足够?5个时间步可能不足以让你的模型捕捉到数据集中的模式。

所有特征真的都必要吗?你可以尝试使用RandomForest/XGBoost来消除对因变量(y)没有重大贡献的所有特征。

从重新审视数据集和你试图解决的任务开始。确保时间序列数据本身是有意义的,而不是纯粹的噪音。尝试在数据集的一小部分上过拟合,然后再进行整个数据集的训练。

Related Posts

使用LSTM在Python中预测未来值

这段代码可以预测指定股票的当前日期之前的值,但不能预测…

如何在gensim的word2vec模型中查找双词组的相似性

我有一个word2vec模型,假设我使用的是googl…

dask_xgboost.predict 可以工作但无法显示 – 数据必须是一维的

我试图使用 XGBoost 创建模型。 看起来我成功地…

ML Tuning – Cross Validation in Spark

我在https://spark.apache.org/…

如何在React JS中使用fetch从REST API获取预测

我正在开发一个应用程序,其中Flask REST AP…

如何分析ML.NET中多类分类预测得分数组?

我在ML.NET中创建了一个多类分类项目。该项目可以对…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注