我使用metrics=['accuracy']
编译了一个模型,得到的值总是高于验证准确率val_acc
。例如:
Epoch 19/2053/53 [==============================] - 280s - loss: 0.3931 - acc: 0.8238 - val_loss: 0.5002 - val_acc: 0.7757Epoch 20/2053/53 [==============================] - 278s - loss: 0.3957 - acc: 0.8255 - val_loss: 0.5009 - val_acc: 0.7754accuracy: 0.790697674418604
有谁知道这两个值是如何计算的不同之处吗?
更新
我使用的是Keras 2.0.8版。这里的’accuracy’指的是最后一行的accuracy: 0.790697674418604
。我没有提供测试集,所以我想知道它测试的是什么数据。
回答:
在训练过程中,样本会被再次划分为两个内部子集。一个用于实际训练,另一个在每个epoch后用于验证。划分比例可以通过参数’validation_split’来控制,如下所示(来自Keras的示例)
h = model.fit(X_train, Y_train, batch_size=200, epochs=50, verbose=2, validation_split=0.2)
现在,回到日志,’acc’指的是训练数据的准确率。’val_acc’指的是验证集的准确率。请注意,val_acc指的是在训练过程中未展示给网络的一组样本,因此它反映了模型在训练集之外的一般表现情况。
验证准确率低于准确率是很常见的。但理想情况下,你应该努力使这两个值保持在同一水平。如果验证准确率远低于准确率,你肯定是过拟合了(如上例所示)——准确率为84而验证准确率为77。
编辑:关于日志最后一行的’accuracy’,这是所有epoch运行后对测试数据集的网络准确率。通常它比准确率更接近’val_acc’(如上例中的79)。这仅仅意味着在最后一个epoch运行中,测试数据中的样本与验证数据中的样本更接近(请记住,这两个集合都不用于训练)。
无论如何,我认为你应该调整以确保’acc’、’val_acc’和最终的’accuracy’彼此更接近。