据我所知,测试准确率应该随着训练时间的增加而增加(直到某个点);但在使用Weka进行实验时却得到了相反的结果。我想知道是否有什么地方我误解了。我使用diabetes.arff进行分类,70%用于训练,30%用于测试。我使用了多层感知器分类器,并尝试了100、500、1000、3000、5000的训练时间。以下是我的结果,
Training time Accuracy 100 75.2174 % 500 75.2174 % 1000 74.7826 % 3000 72.6087 % 5000 70.4348 % 10000 68.6957 %
这可能是为什么呢?谢谢!
回答:
你得到了一个非常好的过拟合的例子。
以下是对发生情况的简短解释:
你的模型(无论是多层感知器、决策树还是其他任何东西)可以通过两种方式来拟合训练数据。
第一种是泛化——模型试图找到模式和趋势,并使用它们来进行预测。第二种是记住训练数据集中的确切数据点。
想象一个计算机视觉任务:将图像分类为两类——人类与卡车。一个好的模型会找到人类图片中存在但卡车图片中不存在的共同特征(如平滑的曲线、肤色的表面)。这是泛化。这种模型能够很好地处理新的图片。一个坏的模型,即过拟合的模型,只会记住训练数据集中的确切图像和像素,对测试集中的新图像不知所措。
你可以采取哪些措施来防止过拟合?
有几种常见的方法来处理过拟合:
- 使用更简单的模型。参数较少的模型难以记住数据集。
- 使用正则化。限制模型的权重和/或在你的感知器中使用dropout。
- 停止训练过程。再次分割你的训练数据,这样你将拥有数据的三个部分:训练、开发和测试。然后仅使用训练数据训练你的模型,并在开发集上的错误停止减少时停止训练。
关于过拟合的阅读起点可以是维基百科:https://en.wikipedia.org/wiki/Overfitting