线性回归中系数与决策树中特征重要性的关系

最近我有一个机器学习(ML)项目,需要识别对目标/输出有重大影响的特征(输入,a1, a2, a3 … an)。

我使用了线性回归来获取特征的系数,并使用决策树算法(例如随机森林回归器)来获取重要特征(或特征重要性)。

我的理解是否正确,即在线性回归中具有较大系数的特征应该在决策树算法的特征重要性排行榜的前列?


回答:

并不完全是这样,如果你的输入特征未经归一化,你可能会得到一个相对较大的系数,因为某些特征的均值/标准差较大。如果你的特征已经归一化,那么这确实可以作为特征重要性的一个指标,但仍有其他因素需要考虑。

你可以尝试使用sklearn的一些特征选择类,这些类可以自动为你完成这个任务,在这里查看。

Related Posts

使用LSTM在Python中预测未来值

这段代码可以预测指定股票的当前日期之前的值,但不能预测…

如何在gensim的word2vec模型中查找双词组的相似性

我有一个word2vec模型,假设我使用的是googl…

dask_xgboost.predict 可以工作但无法显示 – 数据必须是一维的

我试图使用 XGBoost 创建模型。 看起来我成功地…

ML Tuning – Cross Validation in Spark

我在https://spark.apache.org/…

如何在React JS中使用fetch从REST API获取预测

我正在开发一个应用程序,其中Flask REST AP…

如何分析ML.NET中多类分类预测得分数组?

我在ML.NET中创建了一个多类分类项目。该项目可以对…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注