我最近开始在R语言中尝试使用Keras,并构建了一个简单的预测模型。我得到了大约85%的合理准确率,但模型对测试数据中的每个条目都预测出完全相同的结果。
输入数据由1000行和46列数值指标组成(缩放到0到1之间)。结果(即y变量)由两列组成,即“WIN”和“LOSE”,其值为1或0。如果“WIN”等于1,则“LOSE”必须等于0。
模型结构如下:
`model <- keras_model_sequential() model %>% layer_dense(units = 5, activation = "relu", input_shape = c(46)) %>% layer_dropout(rate = 0.1) %>% layer_dense(units = 25, activation = "relu") %>% layer_dropout(rate = 0.05) %>% layer_dense(units = 10, activation = "relu") %>% layer_dropout(rate = 0.05) %>% layer_dense(units = 6, activation = "relu") %>% layer_dropout(rate = 0.05) %>% layer_dense(units = 2, activation = "softmax")`
然后我用以下代码运行模型:
model %>% compile(loss = "categorical_crossentropy",optimizer =optimizer_rmsprop(),metrics = c("accuracy")) history <- model %>% fit(x_train, y_train, epochs = 30, batch_size = 128, validation_split = 0.2)
接着我用以下代码分析模型的准确率,得到了85%的结果:
model %>% evaluate(x_test, y_test,verbose = 0)
最后我进行了一些预测:
model %>% predict_classes(x_test)
其中“x_test”由500行组成,同样有46列数值列。使用上述代码得到的预测输出是一个与“x_test”行数相同的向量,但所有值都等于1(我知道这不可能,因为这不会产生接近85%的准确率)。
有什么想法可以告诉我哪里做错了?
谢谢!
回答:
我敢打赌,正如cdeterman在评论中暗示的那样,你的数据集非常不平衡,即你的训练集中1的数量远多于0的数量。
在这种情况下,准确率作为一个指标是没有意义的,你应该使用精确度、召回率和混淆矩阵来代替 – 谷歌“类别不平衡”了解更多信息。
举个极端的例子,如果你的训练标签中有85%是1,你可以通过简单(且天真地)将所有样本分类为1来获得85%的(训练)准确率“分类器”(这显然不是你想要的)。