LSTM在子序列上的预测失败

我有一个简单的数据集,类似于:

data = [        [[1,2], [3,4], [5,6], [7,8], [9,10]],        [[10, 20], [30, 40], [50, 60], [70, 80], [90, 100]],        [[0.1, 0.2], [0.3, 0.4], [0.5, 0.6], [0.7, 0.8], [0.9, 0.10]],        [[0.01, 0.02], [0.03, 0.04], [0.05, 0.06], [0.07, 0.08], [0.09, 0.010]],        [[11, 12], [13, 14], [15, 16], [17, 18], [19, 20]]       ]

其中每个输入都与其他输入非常不同

每个输入对应不同的类别:

classes = ['A', 'B', 'C', 'D', 'E']

我训练LSTM的方式如下:

# 构建模型model = Sequential()model.add(LSTM(units=units, activation='tanh',               batch_input_shape=(1, None, n_features),               dropout=dropout, recurrent_dropout=recurrent_dropout,               return_sequences=return_sequences, stateful=stateful))model.add(Dropout(dropout_))  self.model.add(Dense(n_classes, activation='softmax'))self.model.compile(loss='categorical_crossentropy',                   optimizer=optimizer, metrics=['accuracy'])# 训练model.fit(x=np.array(data), y=np.array(classes), batch_size=1)

我能在训练集上达到100%的准确率。然而,当我尝试在子序列上进行预测时,它完全无法识别子序列所属的类别!例如:

[[1,2], [3,4]][[10, 20], [30, 40], [50, 60]][[0.1, 0.2], [0.3, 0.4], [0.5, 0.6]][[0.01, 0.02], [0.03, 0.04]][[11, 12], [13, 14]]

对上述内容应用不同的参数,例如units, dropout …等。为了解决过拟合问题(如果有的话),这些尝试都没有效果。


总结:

无论训练的轮次、参数调整以及使用了不同的优化器和学习率等,子序列上的预测准确率从未超过60%!

我想从这个数据集过渡到更大的数据集,但首先我无法让这个工作正常运行。


回答:

你应该首先将数据集划分为训练和验证(开发)数据集。可能还需要一个测试集。然后在验证数据集上测量性能。

你还可以用子序列的例子来增强你的数据集,并在这些数据上进行训练和验证。

Related Posts

使用LSTM在Python中预测未来值

这段代码可以预测指定股票的当前日期之前的值,但不能预测…

如何在gensim的word2vec模型中查找双词组的相似性

我有一个word2vec模型,假设我使用的是googl…

dask_xgboost.predict 可以工作但无法显示 – 数据必须是一维的

我试图使用 XGBoost 创建模型。 看起来我成功地…

ML Tuning – Cross Validation in Spark

我在https://spark.apache.org/…

如何在React JS中使用fetch从REST API获取预测

我正在开发一个应用程序,其中Flask REST AP…

如何分析ML.NET中多类分类预测得分数组?

我在ML.NET中创建了一个多类分类项目。该项目可以对…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注