如何在Python的Keras中为LSTM添加dropout和attention

我有一个包含约1000个节点的数据集,每个节点有4个时间序列。每个时间序列的长度均为6。标签为0或1(即二元分类)。

更具体地说,我的数据集如下所示。

node, time-series1, time_series2, time_series_3, time_series4, Labeln1, [1.2, 2.5, 3.7, 4.2, 5.6, 8.8], [6.2, 5.5, 4.7, 3.2, 2.6, 1.8], …, 1n2, [5.2, 4.5, 3.7, 2.2, 1.6, 0.8], [8.2, 7.5, 6.7, 5.2, 4.6, 1.8], …, 0and so on.

在将时间序列输入到我的LSTM模型进行分类之前,我会对其进行normalise处理。

model = Sequential()model.add(LSTM(10, input_shape=(6,4)))model.add(Dense(32))model.add(Dense(1, activation='sigmoid'))model.compile(loss='binary_crossentropy', optimizer='adam', metrics=['accuracy'])print(data.shape) # (1000, 6, 4)model.fit(data, target)

我刚开始使用Keras,所以从最简单的LSTM模型开始。然而,现在我想将其提升到可以用于工业级别的水平。

我读到在LSTM模型中添加dropoutattention层是个好主意。请告诉我是否认为添加这些层适合我的问题,如果适合,如何操作?:)

注意:我不限于dropout和attention层,乐于接受其他可以改善模型的建议。

如果需要,我很乐意提供更多细节。


回答:

如果你想在LSTM单元中添加dropout,可以尝试如下操作

model = Sequential()model.add(LSTM(10, input_shape=(6,4), dropout=0.5))model.add(Dense(32))model.add(Dense(1, activation='sigmoid'))model.compile(loss='binary_crossentropy', optimizer='adam', metrics=['accuracy'])print(data.shape) # (1000, 6, 4)model.fit(data, target)

或者在LSTM单元之间使用dropout,可以考虑以下方式

model = Sequential()model.add(LSTM(10, input_shape=(6,4)))model.add(Dropout(0.5))model.add(LSTM(10, input_shape=(6,4)))model.add(Dense(32))model.add(Dense(1, activation='sigmoid'))model.compile(loss='binary_crossentropy', optimizer='adam', metrics=['accuracy'])print(data.shape) # (1000, 6, 4)model.fit(data, target)

Related Posts

使用LSTM在Python中预测未来值

这段代码可以预测指定股票的当前日期之前的值,但不能预测…

如何在gensim的word2vec模型中查找双词组的相似性

我有一个word2vec模型,假设我使用的是googl…

dask_xgboost.predict 可以工作但无法显示 – 数据必须是一维的

我试图使用 XGBoost 创建模型。 看起来我成功地…

ML Tuning – Cross Validation in Spark

我在https://spark.apache.org/…

如何在React JS中使用fetch从REST API获取预测

我正在开发一个应用程序,其中Flask REST AP…

如何分析ML.NET中多类分类预测得分数组?

我在ML.NET中创建了一个多类分类项目。该项目可以对…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注