我正在编写一个R脚本,运行后会给出因变量的预测值。我的所有变量都是按类别划分的(如图所示)并分配了一个数字,总共有101个类别(每个类别是一个歌曲名称)。
因此,我有一个训练数据集,包含像{(2,5,6,1)82, (2,5,6,1)45, (2,5,3,1)34, …}这样的配对。我在R Studio中使用线性SVM训练了这个数据集,对于给定的(x,y,z,w)的一些值,它给出了正确的答案。但是,即使训练数据集中存在像(2,5,6,1)X这样的记录,为什么它不预测82或45的值呢?我很困惑,因为它忽略了这些项并显示了一个全新的输出23。
training_set = dataset;library(e1071)classifier = svm(formula = Song ~ ., data = training_set, type = 'C-classification', kernel = 'linear')y_pred = predict(classifier, data.frame(Emotion = 2, Pact = 5, Mact = 6, Session = 1)).
我希望我的答案尽可能接近。我该怎么做才能实现这些目标?
- 在R中获取至少10个最接近的结果,而不是1个。
- 线性SVM模型在这里表现得好吗?
- 如何获得训练数据集中的82,45这样的值,如果没有这样的条目,则找到最接近的一个。(有没有不仅仅使用欧几里得距离的模型)?
回答:
你为什么认为你的分类器会对一组预测变量预测出与原始观测相同的结果?我认为你可能对分类工作原理有一些根本性的误解。
这里有一个使用线性回归模型的简单反例。同样的原理也适用于你的SVM。
-
模拟一些数据
set.seed(2017);x <- seq(1:10);y <- x + rnorm(10);
-
我们现在修改
y
的一个值,并显示(x
,y
)对的数据。y[3] = -10;df <- cbind.data.frame(x = x, y = y);df;# x y#1 1 2.434201#2 2 1.922708#3 3 -10.000000#4 4 2.241395#5 5 4.930175#6 6 6.451906#7 7 5.041634#8 8 7.998476#9 9 8.734664#10 10 11.563223
-
拟合模型并获取预测值。
fit <- lm(y ~ x, data = df);pred <- predict(fit);
-
让我们看看预测的响应
y.pred
,并将其与原始数据(x
,y
)进行比较。data.frame(df, y.pred = pred)# x y y.pred#1 1 2.434201 -2.1343357#2 2 1.922708 -0.7418526#3 3 -10.000000 0.6506304#4 4 2.241395 2.0431135#5 5 4.930175 3.4355966#6 6 6.451906 4.8280796#7 7 5.041634 6.2205627#8 8 7.998476 7.6130458#9 9 8.734664 9.0055288#10 10 11.563223 10.3980119
注意,对于x=3
的预测响应是y.pred=0.65
,尽管你观察到的y=-10
。