在使用重要特征训练随机森林时准确率降低

我正在使用随机森林进行二元分类。

当我使用所有特征(10个特征)进行训练时,准确率达到了85%。

训练后,我可视化了重要特征。结果显示有2个特征非常重要。

于是我仅选择了这两个重要特征并使用相同的设置训练随机森林,但准确率反而下降了(0.70%)。

这种情况会发生吗?我原本期待更高的准确率。

在这种情况下,我该怎么做才能获得更好的准确率?

谢谢


回答:

使用随机森林时的一个普遍原则是包含所有可观察的数据。其原因在于,我们事先并不知道哪些特征可能会影响响应和模型。仅仅因为你发现只有少数几个特征是强有力的影响因素,并不意味着剩余的特征在模型中不发挥任何作用。

因此,你应该在训练随机森林模型时继续包含所有特征。如果某些特征不能提高准确率,它们会在训练过程中被移除或忽略。你通常不需要通过手动移除任何特征来进行修正。

Related Posts

L1-L2正则化的不同系数

我想对网络的权重同时应用L1和L2正则化。然而,我找不…

使用scikit-learn的无监督方法将列表分类成不同组别,有没有办法?

我有一系列实例,每个实例都有一份列表,代表它所遵循的不…

f1_score metric in lightgbm

我想使用自定义指标f1_score来训练一个lgb模型…

通过相关系数矩阵进行特征选择

我在测试不同的算法时,如逻辑回归、高斯朴素贝叶斯、随机…

可以将机器学习库用于流式输入和输出吗?

已关闭。此问题需要更加聚焦。目前不接受回答。 想要改进…

在TensorFlow中,queue.dequeue_up_to()方法的用途是什么?

我对这个方法感到非常困惑,特别是当我发现这个令人费解的…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注