我从未见过这样的学习曲线。我的理解正确吗,这种巨大的过拟合现象发生了?模型对训练数据的拟合越来越好,而对测试数据的泛化能力却越来越差。
通常,当存在高方差的情况,如这里所示,更多的样本应该会有所帮助。但在这种情况下,我怀疑它们不会起作用。这是为什么呢?为什么这种学习曲线的例子在文献/教程中不容易找到?
回答:
你需要记住,SVM是非参数模型,因此更多的样本并不一定会减少方差。对于参数模型(如神经网络),方差的减少或多或少可以得到保证,但SVM不是这样——更多的样本不仅意味着更好的训练数据,还意味着更复杂的模型。你的学习曲线是SVM过拟合的典型例子,这在使用RBF核时经常发生。