我正在尝试将一个Spark Dataframe转换为标记点。这个Dataframe名为DF,显示如下:
+-----+-----+-----+-----+-----+-----+-----+-----+-----+------+-----+|step1|step2|step3|step4|step5|step6|step7|step8|step9|step10|class|+-----+-----+-----+-----+-----+-----+-----+-----+-----+------+-----+| 14| 14| 0| 14| 14| 4| 11| 10| 0| 7| 1|| 11| 10| 14| 0| 14| 18| 18| 14| 7| 7| 1|| 14| 14| 14| 14| 14| 14| 7| 0| 7| 0| 1|| 14| 14| 14| 14| 7| 7| 14| 14| 0| 11| 1|| 14| 14| 14| 14| 14| 14| 14| 7| 14| 7| 1|| 14| 14| 14| 14| 14| 14| 14| 0| 7| 7| 1|| 14| 14| 14| 14| 14| 14| 14| 7| 14| 7| 1|| 17| 14| 0| 7| 0| 0| 14| 7| 0| 7| 1|| 14| 14| 14| 7| 7| 14| 7| 14| 14| 7| 1|| 14| 14| 14| 14| 14| 14| 14| 7| 7| 7| 1|| 7| 14| 14| 14| 14| 0| 14| 7| 0| 14| 1|| 14| 14| 14| 14| 14| 0| 14| 7| 7| 7| 1|
根据文档,我尝试做的操作是:
(training, test) = DF.randomSplit([0.8,0.2])print trainingdef parsePoint(line): values = [float(x) for x in line.split(' ')] return LabeledPoint(values[0], values[:1])trainLabeled = training.rdd.map(parsePoint)model = SVMWithSGD.train(trainLabeled, iterations=100)
但我遇到了以下错误:
Py4JJavaError: An error occurred while calling z:org.apache.spark.api.python.PythonRDD.runJob.
Spark版本为2.0.1
回答:
在没有看到你的数据之前我无法确定,但SVMWithSGD
常见的问题通常来自于标签。
你需要使用LabeledPoint
(如你所做的那样),并且确保第一个参数是0.0或1.0。错误可能来自x[-1]
是其他值(不是0也不是1)。
你能检查一下吗?
希望对你有帮助,pltrdy
编辑(在看到数据后):
嗯,我们回到基础:SVM(粗略地)“学习如何将数据分成两个类别”(这并不是很正式,但我们先这样理解)。这么说来,你的数据集必须是:一个形状为n x D
的X
矩阵(n
为行数,D
为特征数),以及一个形状为n x 1
的y
矩阵,包含数据的标签。标签通常是二元的,表示为{0, 1}
(或者{-1, 1}
,这对数学计算更方便)。这是一种“数学”方法。通常你有一个data
矩阵,你通过“提取”一列作为标签来将其分成X
和y
(这一列中的所有值必须是0或1)。
简而言之:SVM将你的数据分类为两个类别。
标签(=类别,其值为0或1)可以被视为用于分割数据的两个类别。所以你必须有一列只有0或1。
例如 如果我构建我的电影数据集,我可以设置一列“是否喜欢?”,如果我喜欢这部电影则label=1
,如果不喜欢则label=0
,然后训练我的SVM来预测我应该喜欢哪部电影
在你的数据中我没有看到哪个列是标签。如果你有超过两个类别,SVM不适合你,你需要查看多变量分类(这不在此讨论范围内,如果这是你想要的,请告诉我)。
我猜你的目标对你来说不是很明确。例如,人们不会使用ID列来训练分类,这通常没有意义。如果我错了,请解释你对数据的期望。(你也可以解释各列的含义)。
pltrdy