我正在尝试使用R中的SVM对一些数据进行分类。
数据集如下:
D1 | D2 | D3 | word1 | word2 |...1 | 2 | 3 | 0 | 1 |3 | 2 | 1 | 1 | 0 |
D1, D2, D3 的值在0到9之间,每个单词的值为0或1。
首先,我想构建一个分类器,根据word1, word2等预测D1。然后我想构建一个分类器,根据它在D1的预测结果和单词来预测D2。D1, D2和D3原本是一个三位数的单一数字,且各位数之间存在关联性。
到目前为止,我做的如下:
trainD1 <- train[,-1]trainD1$D2 <- NULLtrainD1$D3 <- NULLmodelD1 <- svm( train$D1~., trainD1, type="C-classification")
但我完全迷失了,任何帮助都欢迎。
谢谢
回答:
我确定你已经知道这一点,但我只是想确保我覆盖了所有情况——如果D1和D2能够预测D3,那么使用D1和D3的实际值总会比使用它们的预测值更好。
为回答此问题,我假设D1和D2可能不在你的预测数据集中,所以你必须预测它们。直接从“单词”变量预测D3可能仍然更准确,但这不在本问题讨论范围之内。
train <- read.csv("trainingSmallExtra.csv")require(e1071)d1 <- svm( x = train[,5:100], # 任意选择的单词子集 y = train$D1, gamma = 0.1)d1.predict <- predict(d1)train <- cbind(d1.predict, train)x_names <- c("d1.predict", train[,6:101])d2 <- svm( x = x_names, # d1的预测值 + 任意选择的单词子集 y = train$D2, gamma = 0.1)d2.predict <- predict(d2)train <- cbind(d2.predict, train)x_names <- c("d1.predict", "d2.predict", colnames(train)[25:150]) final <- svm( x = train[,x_names], y = train$D3, gamma = 0.1)summary(final)
调用: svm.default(x = train[, x_names], y = train$D3, gamma = 0.1)
参数: SVM类型: eps-regression SVM内核: 径向
成本: 1 gamma: 0.1 epsilon: 0.1
支持向量数量: 932
这只是为了展示过程。在你的代码中,你需要使用更多的单词并设置你认为最合适的选项。
我建议使用保留样本或交叉验证来评估性能。通过比较它们的性能基准,将集成模型与直接尝试从单词预测D3的单一模型进行比较。