使用Scikit-learn回归时的截距和系数解释值

我有一组包含a、b、c特征以及R结果的数据

a     b     c          R245   49    158    166.65431333     195   191    100.3637372.      .      .        .

我使用scikit-learn的线性回归进行了分析,并得到了以下结果:

截距B0[k0,k1,k2]系数。

如何使用这些变量预测结果,而不需要使用predict函数?

编辑:

我通过将RGB转换为XYZ(CEI)获得了这些数据,实际上这些系数与标准公式非常相似。

标准公式系数    :  [0.4887180  0.3106803  0.2006017]线性回归系数   :  [0.488718   0.3106803  0.2006017]

回答:

你可以创建变量yhat如下:

yhat = B0 + k0 * x1 + k1 * x2 + k2 * x3 

其中x1、x2和x3是你的自变量。

注意事项:

  • 以上是线性回归模型的方程,可以扩展到任意数量的变量。
  • yhat存储了根据估计系数计算出的x1、x2和x3给定值的预测值

Related Posts

使用LSTM在Python中预测未来值

这段代码可以预测指定股票的当前日期之前的值,但不能预测…

如何在gensim的word2vec模型中查找双词组的相似性

我有一个word2vec模型,假设我使用的是googl…

dask_xgboost.predict 可以工作但无法显示 – 数据必须是一维的

我试图使用 XGBoost 创建模型。 看起来我成功地…

ML Tuning – Cross Validation in Spark

我在https://spark.apache.org/…

如何在React JS中使用fetch从REST API获取预测

我正在开发一个应用程序,其中Flask REST AP…

如何分析ML.NET中多类分类预测得分数组?

我在ML.NET中创建了一个多类分类项目。该项目可以对…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注