我无法理解为什么我的验证准确率会如此之高,达到了98%。这个数值是在仅经过5个周期后的结果;我的训练准确率正在缓慢增加,如下面的截图所示。
我的数据是一个相当大的浮点数np数组,表示9秒的.WAV文件。
这是我的变量浏览器
这是我的模型的外观。正如你所见,为了减少过拟合(之前的过拟合情况非常严重 – 训练准确率99%,验证准确率26%),我添加了一个60%的 dropout 层;这让我获得了最高的验证准确率。
models = models.Sequential()models.add(layers.Dense(20,activation = keras.layers.LeakyReLU(alpha=0.3)))models.add(layers.Dense(4,activation = 'relu'))models.add(layers.Dropout(.6))models.add(layers.Dense(6,activation = 'relu'))models.add(layers.Dense(80,activation = 'relu'))models.add(layers.Dense(4, activation='softmax'))models.compile(optimizer ='nadam', loss='categorical_crossentropy', metrics=['acc'])history = models.fit(train_data, train_labels, epochs=5, batch_size= 2000, validation_data=(test_data, test_labels))
即使在数据洗牌后,这种高准确率依然存在,如下所示。
data = np.column_stack((X,Y))np.random.shuffle(data)train_data = data[0:515,0:396900]train_labels = data[0:515,396900:396904]test_data = data[515:585,0:396900]test_labels = data[515:585,396900:396904]
(已修正数据洗牌,谢谢)
当然,我并不是在抱怨这种高准确率,我只是觉得这可能是由于某个错误或测量了错误的值/keras计算了错误的准确率所致。
回答:
我非常确定这是关于数据洗牌的问题。
请注意,在你最后的代码片段中,你并没有洗牌训练和测试数据(X
& Y
),而只是洗牌了data
数组。
要使用洗牌后的数据进行训练,你应该这样做:
train_data = data[0:515,0]train_labels = data[0:515,1]test_data = data[515:586,0]test_labels = data[515:586,1]