我在kernlab包中发现了一些令人困惑的行为:数学上相同的SVM估计在软件中产生了不同的结果。
这段代码片段只是为了简单起见,将iris数据集转换为二分类问题。如您所见,我在这两个SVM中都使用了线性核函数。
library(kernlab)library(e1071)data(iris)x <- as.matrix(iris[, 1:4])y <- as.factor(ifelse(iris[, 5] == 'versicolor', 1, -1))C <- 5.278031643091578svm1 <- ksvm(x = x, y = y, scaled = FALSE, kernel = 'vanilladot', C = C)K <- kernelMatrix(vanilladot(), x)svm2 <- ksvm(x = K, y = y, C = C, kernel = 'matrix')svm3 <- svm(x = x, y = y, scale = FALSE, kernel = 'linear', cost = C)
然而,svm1和svm2的摘要信息有显著的不同:kernlab报告这两个模型的支持向量数量、训练误差率和目标函数值完全不同。
> svm1Support Vector Machine object of class "ksvm" SV type: C-svc (classification) parameter : cost C = 5.27803164309158 Linear (vanilla) kernel function. Number of Support Vectors : 89 Objective Function Value : -445.7911 Training error : 0.26 > svm2Support Vector Machine object of class "ksvm" SV type: C-svc (classification) parameter : cost C = 5.27803164309158 [1] " Kernel matrix used as input."Number of Support Vectors : 59 Objective Function Value : -292.692 Training error : 0.333333
为了比较,我还使用e1071计算了相同的模型,该包为libsvm包提供了R接口。
svm3Call:svm.default(x = x, y = y, scale = FALSE, kernel = "linear", cost = C)Parameters: SVM-Type: C-classification SVM-Kernel: linear cost: 5.278032 gamma: 0.25 Number of Support Vectors: 89它报告了89个支持向量,与svm1相同。
我的问题是,kernlab包中是否有已知的错误可以解释这种异常行为。
(R的Kernlab是一个SVM求解器,允许用户使用几种预设的核函数之一,或用户提供的核矩阵。输出是基于用户提供的超参数的支持向量机的估计。)
回答:
回顾一些代码,似乎这是导致问题的行:
https://github.com/cran/kernlab/blob/efd7d91521b439a993efb49cf8e71b57fae5fc5a/src/svm.cpp#L4205
也就是说,在用户提供核矩阵的情况下,ksvm
只考虑两个维度,而不是输入的维度。这看起来很奇怪,可能是某种测试的遗留问题。使用仅有两个维度的数据测试线性核函数会产生相同的结果:在上述代码中将1:4
替换为1:2
,输出和预测结果都一致。