我不明白如何使用SVM处理多类分类问题。我在网上找到的都是一对所有(one to all)方法,但这仅适用于二元分类。然而,我的目标是例如:
print(target)
输出:
[ 0 0 0 ... 9 9 9]
那么,如何正确地使用SVM处理这种情况?我只是按照那些例子构建了模型。但对我来说,这似乎不是处理多标签分类的正确方法。请指导我。如果SVM根本不是一个好的选择,请建议我使用随机森林、决策树、K最近邻等中的哪一个(除了神经网络和卷积神经网络,因为我已经在我的数据集上实现了这两种算法,我只需要再一个算法来比较我的结果)。到目前为止,我的代码如下:
X_train, X_test, y_train, y_test = train_test_split(data, target, test_size=0.2, random_state=42)from sklearn.svm import SVCmodel_svm = SVC(kernel='linear')clf_svm = model_svm.fit(X_train,y_train)y_svm = model_svm.predict(X_test)from sklearn.metrics import accuracy_scoreprint('Accuracy of SVM: ', accuracy_score(y_svm, y_test))
回答:
你使用了线性核函数,这仅适用于线性边界:
model_svm = SVC(kernel='linear')
尝试使用rbf
核函数,它可以处理大多数非线性边界,并且非常高效。
model_svm = SVC(kernel='rbf')
参考:https://scikit-learn.org/stable/auto_examples/svm/plot_svm_kernels.html