如果在已经包含结果的测试集上测试模型会有什么不同?理论上这会为模型提供额外的信息,但当我运行一个例子时,结果是相同的。我将在下面的例子中使用SVM作为示例。
假设你用一部分鸢尾花数据训练了一个SVM。
set.seed(123)split = sample.split(iris$Species, SplitRatio = 0.75)training_set = subset(iris, split == TRUE)test_set = subset(iris, split == FALSE)
创建模型
classifier = svm(formula = Species ~ ., data = training_set, type = 'C-classification', kernel = 'radial')
现在我们将进行两次预测。一次是在模型无法访问结果的测试集上进行预测(正确的方式),另一次是在模型可以访问结果的测试集上进行预测。版本1:
#创建不包含结果的预测,即test_set[-5] y_pred <- predict(classifier, newdata = test_set[-5]) table( y_pred, test_set[, 5]) y_pred setosa versicolor virginica setosa 12 0 0 versicolor 0 12 1 virginica 0 0 11
版本2:
#创建包含结果的预测,即整个test_set y_pred <- predict(classifier, newdata = test_set) table( y_pred, test_set[, 5]) y_pred setosa versicolor virginica setosa 12 0 0 versicolor 0 12 1 virginica 0 0 11
版本1和版本2显示了相同的结果。为什么会这样?是模型自动忽略了结果,还是其余的特征足以进行预测?
回答:
正如评论中已经提到的,你的两个代码片段实际上是等价的;在第二个片段中:
y_pred <- predict(classifier, newdata = test_set)
包含结果的第五列test_set[5]
,在幕后,实际上是被从输入模型的数据中移除的,并且它没有用于生成实际的预测。
但这是一个有趣的例子,展示了一个为方便而设计的语言特性如何可能导致新用户的这种困惑:实际上,这里你第二个片段能够工作而不抛出错误的唯一原因是由于在模型拟合中使用的公式接口(这是R的一个相当独特的特性)。
为了看到情况如何可能很容易变得不同,让我们做一些(看似不重要且琐碎的)更改;让我们手动分离特征和标签,并改用另一种数据接口来拟合模型:
X = training_set[,1:4]y = training_set[5]classifier = svm(X, y, type = 'C-classification', kernel = 'radial')
这将导致第二个片段失败(test_set
现在,与用于训练的X
相反,也包含了标签,即多了一列),仅仅因为它获得了比预期更多的输入特征(5个而不是4个):
pred = predict(classifier, test_set)Error in scale.default(newdata[, object$scaled, drop = FALSE], center = object$x.scale$"scaled:center", : length of 'center' must equal the number of columns of 'x'Calls: predict -> predict.svm -> scale -> scale.defaultExecution halted
在这种情况下,我们有责任准备数据,使它们包含与训练时完全相同的特征 – 不多不少:
pred = predict(classifier, test_set[,1:4]) # 正常工作
但这无疑也防止了像你在这里表达的潜在困惑…
进一步看,除了R之外,这种第二种情况(即数据接口而不是公式接口)更像是规则而不是例外。这里是Python和scikit-learn的例子;为了简洁,这里不提供完整的例子(如果你希望看到完整的例子,请留言),用X
和y
分别表示鸢尾花的特征和标签,我们拟合一个分类器如下:
clf = LogisticRegression()clf.fit(X,y)
但如果我们将X
和y
合并到一个单一变量X_plus
中,并尝试用它进行预测,我们会得到一个预期的错误,指出列数过多:
clf.predict(X_plus)---------------------------------------------------------------------------ValueError Traceback (most recent call last)<ipython-input-21-b7d5b72a1945> in <module>()----> 1 clf.predict(X_plus)/usr/local/lib/python3.6/dist-packages/sklearn/linear_model/_base.py in decision_function(self, X) 271 if X.shape[1] != n_features: 272 raise ValueError("X has %d features per sample; expecting %d"--> 273 % (X.shape[1], n_features)) 274 275 scores = safe_sparse_dot(X, self.coef_.T,ValueError: X has 5 features per sample; expecting 4