我使用LIBSVM和MatLab对34×5的数据进行分类,分为3个类别。我应用了10折交叉验证方法和RBF核。输出的混淆矩阵显示正确率为0.88(88%准确率)。这是我的混淆矩阵
9 0 0
0 3 0
0 4 18
我想知道在SVM内部有哪些方法可以考虑来提高准确率,或者其他机器学习技术中的分类方法。有什么建议吗?
这是我的SVM分类代码
load Turn180SVM1; //load data filelibsvm_options = '-s 1 -t 2 -d 3 -r 0 -c 1 -n 0.1 -p 0.1 -m 100 -e 0.000001 -h 1 -b 0 -wi 1 -q';//svm optionsC=size(Turn180SVM1,2);% cross validationfor i = 1:10 indices = crossvalind('Kfold',Turn180SVM1(:,C),10); cp = classperf(Turn180SVM1(:,C)); for j = 1:10 [X, Z] = find(indices(:,end)==j);%testing [Y, Z] = find(indices(:,end)~=j);%trainingfeature_training = Turn180SVM1([Y'],[1:C-1]); feature_testing = Turn180SVM1([X'],[1:C-1]);class_training = Turn180SVM1([Y'],end); class_testing = Turn180SVM1([X'], end);% SVM Training disp('training'); [feature_training,ps] = mapminmax(feature_training',0,1); feature_training = feature_training'; feature_testing = mapminmax('apply',feature_testing',ps)'; model = svmtrain(class_training,feature_training,libsvm_options); % % SVM Prediction disp('testing'); TestPredict = svmpredict(class_testing,sparse(feature_testing),model); TestErrap = sum(TestPredict~=class_testing)./length(class_testing)*100; cp = classperf(cp, TestPredict, X); disp(((i-1)*10 )+j);end;end;[ConMat,order] = confusionmat(TestPredict,class_testing);cp.CorrectRate;cp.CountingMatrix;
回答:
存在许多方法。如果你的调优过程是最优的(例如,执行良好的交叉验证),你的选择包括:
-
改进预处理,可能根据领域知识定制新的聚合特征。最重要(也是最有效)的:确保你的输入被正确标准化,例如通过将每个维度缩放到[-1,1]范围内。
-
使用其他核函数:RBF核函数在多种环境下表现非常好,但许多任务有专门的核函数。除非你知道自己在做什么,否则不要考虑这一点。由于你处理的是低维问题,如果你的数据没有结构,RBF可能是很好的选择。
-
重新加权训练实例:当你的数据集不平衡时(例如,一些类别的实例数量远少于其他类别)这点特别重要。你可以使用libsvm中的
-wX
选项来实现这一点。存在各种重新加权方案,包括提升的变体。我个人不太喜欢这种方法,因为这种方法容易过拟合。 -
更改交叉验证的成本函数以适应你的具体需求。准确率真的是你想要的吗,还是你想要高F1或高ROC-AUC?令人惊讶的是,有多少人优化了一个他们并不真正关心的性能指标。