决策树回归背后的数学原理?

我试图理解决策树(回归)背后的数学原理。我找到了两篇文章,它们对回归树中如何进行分割的解释不同。有人能指出哪个是正确的,或者两者是否相似只是方法不同吗?

  1. https://www.saedsayad.com/decision_tree_reg.htm
  2. https://www.python-course.eu/Regression_Trees.php

谢谢,


回答:

两者都是正确的。方法1使用标准差来分割节点,方法2使用方差。因为目标值是连续的,所以使用了标准差和方差。

方差是回归树最常用的分割标准之一。

方差
方差是各数据点与均值的平方差的平均值。要计算方差,首先计算每个点与均值的差,然后平方并平均这些结果。

标准差
标准差是一个统计量,用于衡量一组数字与其均值的偏离程度,通过使用方差的平方根来计算。方差的计算使用平方是因为它对离群值的加权重于接近均值的数据。这种计算方法还可以防止高于均值的差异与低于均值的差异相互抵消,有时会导致方差为零的情况。

enter image description here

enter image description here

Related Posts

使用LSTM在Python中预测未来值

这段代码可以预测指定股票的当前日期之前的值,但不能预测…

如何在gensim的word2vec模型中查找双词组的相似性

我有一个word2vec模型,假设我使用的是googl…

dask_xgboost.predict 可以工作但无法显示 – 数据必须是一维的

我试图使用 XGBoost 创建模型。 看起来我成功地…

ML Tuning – Cross Validation in Spark

我在https://spark.apache.org/…

如何在React JS中使用fetch从REST API获取预测

我正在开发一个应用程序,其中Flask REST AP…

如何分析ML.NET中多类分类预测得分数组?

我在ML.NET中创建了一个多类分类项目。该项目可以对…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注