为什么随机森林总是给出1.0的预测分数?

我正在尝试测试以下分类器的预测分数:

- 随机森林- k近邻- 支持向量机- 朴素贝叶斯

我没有使用特征选择或特征缩放(完全没有预处理)。

我使用以下方式进行训练-测试分割:

X_train, X_test, y_train, y_test = train_test_split(X, y, test_size = 0.3)

我测试了几种数据集(来自sklearn):

- load_iris- load_breast_cancer- load_wine

在这三个数据集中,随机森林总是给出完美的预测(测试准确率1.0)。

我尝试创建用于分类的随机样本:

make_classification(flip_y=0.3, weights = [0.65, 0.35], n_features=40, n_redundant=4, n_informative=36,n_classes=2,n_clusters_per_class=1, n_samples=50000)

同样,随机森林在测试集上给出了完美的预测(准确率1.0)。

所有其他分类器在测试集上的表现都很好(0.8-0.97),但不像随机森林那样完美(1.0)。

  • 我错过了什么?
  • 随机森林真的完美地超越了所有其他分类器吗?

回答:

关于1.0的完美准确率分数,我们必须记住,这三个数据集现在都被认为是玩具数据集,同样的情况可能也适用于由scikit-learn的make_classification生成的人造数据。

尽管如此,RF确实被认为是一种非常强大的分类算法。甚至有一篇相对较新的论文(2014年),标题为我们需要数百个分类器来解决现实世界的分类问题吗?,得出了结论(引用摘要,原文强调):

我们评估了179个分类器,来自17个家族(判别分析、贝叶斯、神经网络、支持向量机、决策树、基于规则的分类器、提升、装袋、堆叠、随机森林和其他集成方法、广义线性模型、最近邻、偏最小二乘和主成分回归、逻辑回归和多项回归、多重自适应回归样条和其他方法)[…] 我们使用了121个数据集,代表了整个UCI数据库[…] 最有可能成为最佳分类器的是随机森林(RF)版本

尽管这篇论文受到了一些批评,主要是因为它没有包括提升树(但不仅仅是因为这个原因,另见随机森林真的是最好的分类器吗?),但事实是,至少在“传统”的、深度学习之前的分类领域,已经有了一个说法:当有疑问时,尝试RF,上面提到的第一篇论文进一步加强了这一说法。

Related Posts

使用LSTM在Python中预测未来值

这段代码可以预测指定股票的当前日期之前的值,但不能预测…

如何在gensim的word2vec模型中查找双词组的相似性

我有一个word2vec模型,假设我使用的是googl…

dask_xgboost.predict 可以工作但无法显示 – 数据必须是一维的

我试图使用 XGBoost 创建模型。 看起来我成功地…

ML Tuning – Cross Validation in Spark

我在https://spark.apache.org/…

如何在React JS中使用fetch从REST API获取预测

我正在开发一个应用程序,其中Flask REST AP…

如何分析ML.NET中多类分类预测得分数组?

我在ML.NET中创建了一个多类分类项目。该项目可以对…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注