我想使用多个预测变量来预测多个因变量。如果我理解正确的话,原则上可以制作一系列线性回归模型,每个模型预测一个因变量,但如果因变量之间存在相关性,使用多元回归会更合理。我想做后者,但我不确定如何操作。
到目前为止,我还没有找到一个专门支持这种操作的Python包。我尝试过scikit-learn,尽管他们的线性回归模型示例只展示了y为数组的情况(每个观测值有一个因变量),但它似乎能够处理多个y。然而,当我将这种“多元”方法的输出与我通过手动循环每个因变量并独立预测它们的结果进行比较时,结果完全相同。我认为不应该这样,因为一些因变量之间存在强烈的相关性(>0.5)。
代码看起来像这样,其中y
可以是n x 1
矩阵或n x m
矩阵,x
和newx
是各种大小的矩阵(x
的行数等于n
)。
ols = linear_model.LinearRegression()ols.fit(x,y)ols.predict(newx)
这个函数实际上执行多元回归吗?
回答:
这是一个数学/统计学问题,但我还是会在这里尝试回答。
你看到的结果完全是预期之内的。像这样的线性模型不会考虑因变量之间的相关性。
如果你只有一个因变量,你的模型基本上由一个权重向量组成
w_0 w_1 ... w_n,
其中n
是特征的数量。对于m
个因变量,你反而有一个权重矩阵
w_10 w_11 ... w_1nw_20 w_21 ... w_2n.... ....w_m0 w_m1 ... w_mn
但是不同输出变量(1, …, m)的权重是完全独立的,由于总平方误差的总和分解为每个输出变量的平方误差之和,因此最小化总损失的平方与为每个输出变量设置一个单变量线性模型并独立最小化它们的平方损失是完全相同的。