我对机器学习和sklearn还比较新手,正在尝试使用具有不同正则化参数值的linear_model.Lasso来训练一个具有6个不同特征的输入数据的线性模型。鉴于X和y是我的模型输入参数,我无法理解为什么执行这两个表达式会得到不同的值:
sum(model.coef_*X[0])Out[94]: -0.4895022980752311model.predict(X[0])Out[95]: array([ 2.08767122])
理想情况下,我希望模型系数对应于数据集中给定的特征,并且这两个表达式应该返回完全相同的值。
这是代码样本:
input_file = 'Spud_startup_analysis.xlsx'data_input_generic = pd.read_excel(input_file, skiprows = 0, sheetname='DataSet')data = data_input_generic.as_matrix()X = data[:, 0:-1]y = data[:,-1]model = linear_model.Lasso(alpha = 0.1)model.fit(X, y)
这是否与输入矩阵的维度有关?提前感谢
回答:
你缺少了截距项,这是优化过程默认包含的(fit_intercept
)。
class sklearn.linear_model.Lasso(alpha=1.0, fit_intercept=True, normalize=False, precompute=False, copy_X=True, max_iter=1000, tol=0.0001, warm_start=False, positive=False, random_state=None, selection=’cyclic’)[source]
fit_intercept : boolean
是否为此模型计算截距。如果设置为false,则在计算中不会使用截距(例如,数据预期已被中心化)。
你可以在拟合后通过model.intercept_
获取它。
在内部,predict 执行如下操作:
return safe_sparse_dot(X, self.coef_.T, dense_output=True) + self.intercept_