我在我的数据集上尝试使用OneCsRestClassifier
。我提取了模型将要训练的特征,并在这些特征上拟合了线性SVC。模型拟合后,当我尝试在模型拟合的数据上进行预测时,得到的结果全是零。这是由于实现问题还是因为我的特征提取不够好?我认为由于我在模型拟合的数据上进行预测,我应该得到100%的准确率。但相反,我的模型预测结果全是零。以下是我的代码-
#arrFinal包含所有特征和标签。最后16列是标签,特征从1到521。倒数第17列未被使用
X=np.array(arrFinal[:,1:-17])
X=X.astype(float)
Xtest=np.array(X)
Y=np.array(arrFinal[:,522:]).astype(float)
clf = OneVsRestClassifier(SVC(kernel='linear'))
clf.fit(X, Y)
ans=clf.predict(Xtest)
print(ans)
print("\n\n\n")
我的OneVsRestClassifier实现是否有问题?
回答:
查看你的数据后,似乎数值对于C值来说可能太小了。尝试使用sklearn.preprocessing.StandardScaler
。
X=np.array(arrFinal[:,1:-17])
X=X.astype(float)
scaler = StandardScaler()
X = scaler.fit_transform(X)
Xtest=np.array(X)
Y=np.array(arrFinal[:,522:]).astype(float)
clf = OneVsRestClassifier(SVC(kernel='linear', C=100))
clf.fit(X, Y)
ans=clf.predict(Xtest)
print(ans)
print("\n\n\n")
从这里开始,你应该使用交叉验证对C
进行参数调优。可以使用学习曲线或网格搜索。