我在一组数据上运行了一些预测模型,例如逻辑回归、SVM、决策树等。当我增加更多的维度(预测变量)时,所有模型的准确率都下降了。这应该如何解释?
回答:
通常这意味着你添加的特征要么不重要,要么与你已有的其他特征高度相关。因此,你的模型可能会从这些特征中捕捉到训练集中的“随机”信号,而在测试数据上无法应用,因为这不是一个真实的模式。
然而,这种问题的解释非常依赖于模型。线性模型的行为与决策树不同(例如,它们对相关特征更为敏感),因此它们以相同的方式反应是奇怪的。如果可以,请提供更多细节。
我在一组数据上运行了一些预测模型,例如逻辑回归、SVM、决策树等。当我增加更多的维度(预测变量)时,所有模型的准确率都下降了。这应该如何解释?
回答:
通常这意味着你添加的特征要么不重要,要么与你已有的其他特征高度相关。因此,你的模型可能会从这些特征中捕捉到训练集中的“随机”信号,而在测试数据上无法应用,因为这不是一个真实的模式。
然而,这种问题的解释非常依赖于模型。线性模型的行为与决策树不同(例如,它们对相关特征更为敏感),因此它们以相同的方式反应是奇怪的。如果可以,请提供更多细节。