我正在尝试改进我的模型,使其更加准确。目前我在训练模型时,得到的训练和验证准确率如下。
每次迭代我得到的训练准确率为0.0003,验证准确率为0。我知道这不太好,但我不知道如何解决这个问题。
数据已使用minmax scaler进行归一化。8个特征中有4个被归一化(另外4个是小时、天、星期几和月份)。
更新:我还尝试过对整个数据集进行归一化,但没有效果
scaling = MinMaxScaler(feature_range=(0,1)).fit(df[cols])df[[cols]] = scaling.transform(df[[cols]])
我的模型:形状为(5351, 1, 8)
输入形状为(1, 8)
model = keras.Sequential()model.add(keras.layers.Bidirectional(keras.layers.LSTM(2,input_shape=(X_train.shape[1], X_train.shape[2]), return_sequences=True, activation='linear')))model.add(keras.layers.Dense(1))model.compile(loss='mean_squared_error', optimizer='Adamax', metrics=['acc'])history = model.fit( X_train, y_train, epochs=200, batch_size=24, validation_split=0.35, shuffle=False,)
我尝试使用了这个问题Keras模型准确率未见改善的答案,但没有效果
回答:
mean_squared_error
损失函数适用于回归任务,而acc
指标适用于分类问题。因此,将它们一起使用是没有意义的。
如果你处理的是分类问题,请使用binary_crossentropy
或categorical_crossentropy
作为损失函数,并保持指标参数不变。
如果是回归任务,请将指标改为[mse]
(均方误差)而不是[acc]
。
你的模型“工作”正常,并且你通过使用均方误差损失函数应用了标准的反向传播公式。但测量准确率会让Keras检查你的模型输出是否与预期值完全相等。由于损失函数是为回归设计的,它几乎永远不会完全相等。
最后三点,因为这个小改动并不能解决所有问题。
首先,你的最后一个密集层应该有一个激活函数。(这样更安全)其次,我相当确定在密集层之前放置一个双向LSTM层时,应该设置return_sequences=False
。LSTM层(无论是否是双向的)可以返回完整的向量序列(如矩阵),但密集层需要向量作为输入。但在这种情况下,由于第三点,它会工作。最后一点关于你的数据形状。你有5351个形状为(1, 8)的示例,每个示例是一个大小为8的向量。但LSTM层需要一系列向量,而你的序列大小为1。我不知道在这里使用RNN类型层是否合适。