我正在使用LIBSVM构建一个用于分类恶性乳腺肿瘤的模型。以下是我遵循的算法:
- 使用向后消元法进行特征选择。
- 使用网格搜索为每组特征计算C和gamma值。
- 使用10折交叉验证得出最优的C和gamma值。
- 使用上述步骤,找到最佳的特征子集和最高的准确率。
问题是我在使用LIBSVM处理80:20的数据集时得到了100%的准确率。我没有排除任何特征,并且我没有在同一数据集上进行训练和测试。有什么提示可以告诉我可能出错的地方吗?这里还有一些其他相关信息:
cost = [2^-10, 2^-8, 2^-6, 2^-4, 2^-2, 0.5, 1, 2, 2^2, 2^3, 2^4, 2^5, 2^6, 2^7, 2^8, 2^9, 2^10];g = [2^-10, 2^-8, 2^-6, 2^-4, 2^-2, 2^-1, 1, 2, 2^2, 2^3, 2^4, 2^5, 2^6, 2^7, 2^8, 2^9, 2^10];most optimal C = 1;most optimal gamma = 9.7656e-04;Accuracy on 50:50 test:train dataset: 98.5337%Accuracy on 70:30 test:train dataset: 99.5122%Dataset used: University of Wisconsin breast cancer dataset (682 entries).
回答:
总结:你没有对其他两个数据集提出异议;100%的准确率与那些数据集的结果相当一致。你为什么认为你的准确率应该更低呢?
让我们来看一下错误分类的数量:
50:50 data set -- 5 / 341 errors70:30 data set -- 1 / 205 errors80:20 data set -- 0 / 136 errors
80:20的数据集结果与你之前的结果足够一致:你的准确率似乎已经提高到99.8%以上。
从训练中要求最大准确率表明它可能会保留所有特征,这存在明显的过拟合风险。然而,既然你显然认为前两个数据集是可以接受的,我直觉上认为这个数据集本身的一致性很高。我从经验中觉得这种一致性很奇怪,但你没有描述数据集的属性,甚至没有提供样本或有用的链接让我们检查。