我在spark-shell中尝试实现一个简单的机器学习代码,当我尝试提供一个csv文件时,它要求使用libsvm格式,所以我使用了phraug库来将我的数据集转换为所需格式。虽然这有效,但我还需要对数据进行归一化处理,因此我使用了标准化缩放器来转换数据。这也运行得很好,接下来的步骤是训练机器,为此我使用了SVMWithSGD模型。但当我尝试训练时,我不断收到以下错误
error: type mismatch; found: org.apache.spark.rdd.RDD[(Double,org.apache.spark.mllib.linalg.Vector)] required: org.apache.spark.rdd.RDD[org.apache.spark.mllib.regression.LabeledPoint]
我明白这是一个兼容性问题,可以使用Vector.dense函数,但我不想再次拆分它,我不理解的是,是否有直接的方法可以让我在训练方法中使用它?附注:为了帮助您理解,数据目前看起来像这样
(0.0,[0.03376345160534202,-0.6339809012492886,-6.719697792783955,-6.719697792783965,-6.30231507117855,-8.72828614492483,0.03884804438718658,0.3041969425433718]) (0.0,[0.2535328275090413,-0.8780294632355746,-6.719697792783955,-6.719697792783965,-6.30231507117855,-8.72828614492483,0.26407233411369857,0.3041969425433718])
回答:
假设你的RDD[Double, Vector]
被称为vectorRDD
:
val labeledPointRDD = vectorRDD map { case (label, vector) => LabeledPoint(label, vector) }