我实现了一个模型,使用逻辑回归作为分类器,并希望绘制训练集和测试集的学习曲线,以便决定下一步如何改进我的模型。
为了绘制学习曲线,我定义了一个函数,该函数接受一个模型、一个预分割的数据集(训练/测试的X和Y数组,注意:使用train_test_split
函数)、一个评分函数作为输入,并通过数据集迭代,在n个指数间隔的子集上进行训练,并返回学习曲线。
我想知道为什么训练准确率一开始很高,然后突然下降,然后随着训练集规模的增加又开始上升?而测试准确率则相反。我认为极高的准确率和后来的下降是因为开始时数据集较小导致的噪声,当数据集变得更加一致时,准确率开始上升,但我并不确定。有人能解释一下吗?
最后,我们能否假设这些结果意味着低方差/中等偏差(在我的背景下70%的准确率还算不错),因此为了改进我的模型,我必须采用集成方法或极端特征工程吗?
回答:
我认为发生的情况是,当数据集较小时,你的模型对训练样本过拟合了(训练准确率非常高,测试准确率低)。随着数据集规模的增加,你的分类器开始泛化得更好,从而提高了测试数据集的成功率。
在数据集达到10^3后,准确率似乎稳定在70%,这表明你在训练数据集的过拟合和测试数据集的欠拟合之间达到了一个很好的平衡。