正如在此帖子中提到的,调整后的R2分数可以通过以下公式计算,其中n
是样本数量,p
是模型的参数数量。
adj_r2 = 1-(1-R2)*(n-1)/(n-p-1)
根据另一个帖子,我们可以通过model.coef_
获取模型的参数数量。
然而,对于梯度提升(GBM)模型,似乎我们无法获得模型中的参数数量:
from sklearn.ensemble import GradientBoostingRegressorimport numpy as npX = np.random.randn(100,10)y = np.random.randn(100,1)model = GradientBoostingRegressor()model.fit(X,y)model.coef_output >>> ---------------------------------------------------------------------------AttributeError Traceback (most recent call last)<ipython-input-3-4650e3f7c16c> in <module>----> 1 model.coef_AttributeError: 'GradientBoostingRegressor' object has no attribute 'coef_'
在查看了文档后,似乎GBM由不同的估计器组成。估计器的数量是否等于参数的数量?
但我仍然无法获取每个独立估计器的参数数量
model.estimators_[0][0].coef_output >>> ---------------------------------------------------------------------------AttributeError Traceback (most recent call last)<ipython-input-2-27216ebb4944> in <module>----> 1 model.estimators_[0][0].coef_AttributeError: 'DecisionTreeRegressor' object has no attribute 'coef_'
如何计算GBM的调整后R2分数?
回答:
简短回答:不要这样做(请注意,您链接的所有帖子都是关于线性回归的)。
详细回答:
首先,您对以下定义的理解是不正确的:
p
是模型的参数数量
p
实际上是模型使用的解释变量的数量(来源)。
根据这一定义,您链接的帖子实际上使用的是X.shape[1]
而不是model.coef_
;后者是在评论中建议的,并且也是不正确的(请参阅那里的我的评论)。
因此,如果您坚持要计算您的GBM模型的R-squared,您可以始终调整链接帖子的代码(在获取您的预测y_pred
之后),同时利用scikit-learn的r2_score
:
from sklearn.metrics import r2_scorey_pred = model.predict(X)r_squared = r2_score(y, y_pred)adjusted_r_squared = 1 - (1-r_squared)*(len(y)-1)/(len(y)-X.shape[1]-1)
但为什么不应该这样做呢?引用我在另一个问题中的回答:
实际上,整个R-squared概念直接来自统计学领域,那里的重点在于解释性模型,而在机器学习环境中,重点显然在于预测性模型;至少据我所知,除了某些非常入门的课程外,我从未(我是说从未…)见过任何使用R-squared进行性能评估的预测建模问题;这也不是偶然的,流行的机器学习介绍,如Andrew Ng在Coursera上的机器学习课程,甚至都没有提到它。