以下是代码:
from sklearn.preprocessing import PolynomialFeaturesimport matplotlib.pyplot as pltpoly_reg = PolynomialFeatures(degree = 4) x_poly = poly_reg.fit_transform(x)lin_reg2 = LinearRegression()lin_reg2.fit(x_poly, y)plt.title("Polynomial Regression")plt.xlabel("Position Level")plt.ylabel("Salary")plt.scatter(x, y, color ='red')plt.plot(x, lin_reg2.predict(poly_reg.fit_transform(x)), color = 'blue')plt.show()
为什么我们使用以下代码:
plt.plot(x, lin_reg2.predict(poly_reg.fit_transform(x)), color = 'blue')
而不是使用:
plt.plot(x_poly, lin_reg2.predict(x_poly), color = "blue")
回答:
在这一行代码中:
plt.plot(x, lin_reg2.predict(poly_reg.fit_transform(x)), color = 'blue')
1) 我们使用x而不是x_poly的原因是,在绘制回归数据时,你希望在图表上看到原始的x值(而不是经过fit_transform()方法处理后的居中值),因为你希望看到原始值的预测结果。如果看到居中值的预测结果会让你感到困惑,并且除非你将其转换回原始值,否则意义不大。
2) 在预测y值时,模型的输入需要是转换后的x值。这就是为什么我们首先转换x,然后用它来预测y。我认为在这里使用predict(x_poly)也可以达到同样的目的。
希望这对你有帮助!