我试图创建一个函数,使用均方根误差来寻找我的多项式回归模型的最佳次数,这样我就不必反复手动尝试拟合模型并绘制结果,但我在尝试创建图表时得到了 ‘x 和 y 必须具有相同的第一维度,但它们的形状分别为 (10, 1) 和 (1,)‘ 错误。
这是我的代码:
from sklearn.preprocessing import PolynomialFeaturesfrom sklearn.metrics import mean_squared_errorfrom sklearn.linear_model import LinearRegressionfrom math import sqrtdef poly_fit(n): s=[] for i in range(2,n): poly_reg = PolynomialFeatures(degree=i) x_poly = poly_reg.fit_transform(x) linreg2 = LinearRegression() linreg2.fit(x_poly,y) s.append(sqrt(mean_squared_error(y, linreg2.predict(x_poly)))) return min(s)plt.scatter(x, y, color='red')plt.plot(x, poly_fit(6), color='blue')plt.title('Polynomial Regression results')plt.xlabel('Position/level')plt.ylabel('Salary')plt.show()
回答:
如果你的 x 是一个一维列向量,np.polyfit()
和 np.polyval()
可以完成任务。np.polyfit(x,y,order,full=True)
会返回残差(我认为是残差平方和),供你检查最佳次数。你不需要第二次回归拟合来获得残差。
注意:据我所知,你选择最小残差的逻辑在工程上是可行的,但在数学上不合理。这是因为平方误差和(SSE)总是随着回归项的增加而减少,所以你总是会得到最高多项式次数的结果。你必须尝试在选择模型时使用对增加项进行惩罚的公式(例如 AIC 或 BIC 标准)。然而,这部分完全取决于研究者的自由选择,当然也超出了问题本身的范围。