import osimport pandas as pdimport matplotlib.pyplot as pltfrom sklearn.pipeline import Pipelinefrom sklearn.linear_model import LinearRegressionfrom sklearn.preprocessing import PolynomialFeaturescsv_path = os.path.join('', 'graph.csv')graph = pd.read_csv(csv_path)y = graph['y'].copy()x = graph.drop('y', axis=1)pipeline = Pipeline([('pf', PolynomialFeatures(2)), ('clf', LinearRegression())])pipeline.fit(x, y)predict = [[16], [20], [30]]plt.plot(x, y, '.', color='blue')plt.plot(x, pipeline.predict(x), '-', color='black')plt.plot(predict, pipeline.predict(predict), 'o', color='red')plt.show()
我的graph.csv文件:
x,y1,12,23,34,45,56,5.57,68,6.259,6.410,6.611,6.8
生成的结果:
显然,它产生了错误的预测;随着x的增加,y应该也增加。
我错过了什么?我尝试过改变多项式的阶数,但效果并不好。比如当我使用4阶时,y增加得非常快。
回答:
@某人提供了一个非常好的回答,我将在此基础上进行扩展。
如果你确定随着x的增加,y应该也增加
,那么你的数据点可能遵循对数缩放模式。调整你的代码以适应这种模式,会得到这样的曲线:
如果这符合你所寻找的结果,以下是相应的代码片段:
import osimport numpy as npimport pandas as pdimport matplotlib.pyplot as pltfrom sklearn.pipeline import Pipelinefrom sklearn.linear_model import LinearRegressionfrom sklearn.preprocessing import PolynomialFeaturescsv_path = os.path.join('', 'graph.csv')graph = pd.read_csv(csv_path)y = graph['y'].copy()x = graph.drop('y', axis=1)x_log = np.log(x)pipeline = Pipeline([('pf', PolynomialFeatures(1)), ('clf', LinearRegression())])pipeline.fit(x_log, y)predict = np.log([[16], [20], [30]])plt.plot(np.exp(x_log), y, '.', color='blue')plt.plot(np.exp(x_log), pipeline.predict(x_log), '-', color='black')plt.plot(np.exp(predict), pipeline.predict(predict), 'o', color='red')plt.show()
请注意,我们只是在x数据点的对数上进行多项式回归(这里线性回归就足够了)(x_log
)。