我有一个包含约1000个节点的数据集,每个节点有4个时间序列。每个时间序列的长度均为6。标签为0或1(即二元分类)。
更具体地说,我的数据集如下所示。
node, time-series1, time_series2, time_series_3, time_series4, Labeln1, [1.2, 2.5, 3.7, 4.2, 5.6, 8.8], [6.2, 5.5, 4.7, 3.2, 2.6, 1.8], …, 1n2, [5.2, 4.5, 3.7, 2.2, 1.6, 0.8], [8.2, 7.5, 6.7, 5.2, 4.6, 1.8], …, 0and so on.
在将时间序列输入到我的LSTM模型进行分类之前,我会对其进行normalise
处理。
model = Sequential()model.add(LSTM(10, input_shape=(6,4)))model.add(Dense(32))model.add(Dense(1, activation='sigmoid'))model.compile(loss='binary_crossentropy', optimizer='adam', metrics=['accuracy'])print(data.shape) # (1000, 6, 4)model.fit(data, target)
我刚开始使用Keras,所以从最简单的LSTM模型开始。然而,现在我想将其提升到可以用于工业级别的水平。
我读到在LSTM模型中添加dropout
和attention
层是个好主意。请告诉我是否认为添加这些层适合我的问题,如果适合,如何操作?:)
注意:我不限于dropout和attention层,乐于接受其他可以改善模型的建议。
如果需要,我很乐意提供更多细节。
回答:
如果你想在LSTM单元中添加dropout,可以尝试如下操作
model = Sequential()model.add(LSTM(10, input_shape=(6,4), dropout=0.5))model.add(Dense(32))model.add(Dense(1, activation='sigmoid'))model.compile(loss='binary_crossentropy', optimizer='adam', metrics=['accuracy'])print(data.shape) # (1000, 6, 4)model.fit(data, target)
或者在LSTM单元之间使用dropout,可以考虑以下方式
model = Sequential()model.add(LSTM(10, input_shape=(6,4)))model.add(Dropout(0.5))model.add(LSTM(10, input_shape=(6,4)))model.add(Dense(32))model.add(Dense(1, activation='sigmoid'))model.compile(loss='binary_crossentropy', optimizer='adam', metrics=['accuracy'])print(data.shape) # (1000, 6, 4)model.fit(data, target)