我从一个示例开始尝试进行线性回归。问题是我得到了错误的结果。作为截距,我应该得到的是:2.2。
我在另一篇文章中找到了.optimizer.setStepSize(0.1),尝试添加后,仍然得到奇怪的结果。有什么建议吗?
这是数据集
1,22,43,54,45,5
代码:
import org.apache.spark.SparkConfimport org.apache.spark.SparkContextimport org.apache.spark.mllib.regression.LabeledPointimport org.apache.spark.mllib.regression.LinearRegressionModelimport org.apache.spark.mllib.regression.LinearRegressionWithSGDimport org.apache.spark.mllib.linalg.Vectorsobject linearReg { def main(args: Array[String]) { StreamingExamples.setStreamingLogLevels() val sparkConf = new SparkConf().setAppName("linearReg").setMaster("local") val sc=new SparkContext(sparkConf) // 加载和解析数据 val data = sc.textFile("/home/daniele/dati.data") val parsedData = data.map { line => val parts = line.split(',') LabeledPoint(parts(0).toDouble, Vectors.dense(Array(1.0)++parts(1).split(' ').map(_.toDouble))) }.cache() parsedData.collect().foreach(println) // 构建模型 val numIterations = 1000 val model = LinearRegressionWithSGD.train(parsedData, numIterations) println("截距:"+model.intercept) // 在训练示例上评估模型并计算训练误差 val valuesAndPreds = parsedData.map { point => val prediction = model.predict(point.features) (point.label, prediction) } valuesAndPreds.collect().foreach(println) val MSE = valuesAndPreds.map { case (v, p) => math.pow((v - p), 2) }.mean() println("训练均方误差 = " + MSE) // 保存和加载模型 model.save(sc, "myModelPath") val sameModel = LinearRegressionModel.load(sc, "myModelPath") }}
结果:
weights: [-4.062601003207354E25], intercept: -9.484399253945647E24
更新 – 使用了.train方法 – 添加了1.0作为截距的附加项。数据以这种方式显示,带有1.0附加项
回答:
您使用的是run
,这意味着您传入的数据被解释为“配置参数”,而不是要进行回归的特征。
文档中包含了训练然后运行模型的好例子:
//注意是"train"而不是"run"val numIterations = 1000val model = LinearRegressionWithSGD.train(parsedData, numIterations)
结果是更准确的权重:
scala> model.weightsres4: org.apache.spark.mllib.linalg.Vector = [0.7674418604651163]
如果您想添加截距,只需在您的密集向量中添加一个1.0值作为特征。修改您的示例代码:
...LabeledPoint(Parts(0).toDouble, Vectors.dense(Array(1.0) ++ parts(1).split(' ').map(_.toDouble)))...
第一个特征就是您的截距。