使用LIBSVM进行分类时达到100%准确率 – 可能出错的地方在哪里?

我正在使用LIBSVM构建一个用于分类恶性乳腺肿瘤的模型。以下是我遵循的算法:

  1. 使用向后消元法进行特征选择。
  2. 使用网格搜索为每组特征计算C和gamma值。
  3. 使用10折交叉验证得出最优的C和gamma值。
  4. 使用上述步骤,找到最佳的特征子集和最高的准确率。

问题是我在使用LIBSVM处理80:20的数据集时得到了100%的准确率。我没有排除任何特征,并且我没有在同一数据集上进行训练和测试。有什么提示可以告诉我可能出错的地方吗?这里还有一些其他相关信息:

cost = [2^-10, 2^-8, 2^-6, 2^-4, 2^-2, 0.5, 1,        2, 2^2, 2^3, 2^4, 2^5, 2^6, 2^7, 2^8, 2^9, 2^10];g = [2^-10, 2^-8, 2^-6, 2^-4, 2^-2, 2^-1, 1,     2, 2^2, 2^3, 2^4, 2^5, 2^6, 2^7, 2^8, 2^9, 2^10];most optimal C = 1;most optimal gamma = 9.7656e-04;Accuracy on 50:50 test:train dataset: 98.5337%Accuracy on 70:30 test:train dataset: 99.5122%Dataset used: University of Wisconsin breast cancer dataset (682 entries).

回答:

总结:你没有对其他两个数据集提出异议;100%的准确率与那些数据集的结果相当一致。你为什么认为你的准确率应该更低呢?

让我们来看一下错误分类的数量:

50:50 data set -- 5 / 341 errors70:30 data set -- 1 / 205 errors80:20 data set -- 0 / 136 errors

80:20的数据集结果与你之前的结果足够一致:你的准确率似乎已经提高到99.8%以上。

从训练中要求最大准确率表明它可能会保留所有特征,这存在明显的过拟合风险。然而,既然你显然认为前两个数据集是可以接受的,我直觉上认为这个数据集本身的一致性很高。我从经验中觉得这种一致性很奇怪,但你没有描述数据集的属性,甚至没有提供样本或有用的链接让我们检查。

Related Posts

L1-L2正则化的不同系数

我想对网络的权重同时应用L1和L2正则化。然而,我找不…

使用scikit-learn的无监督方法将列表分类成不同组别,有没有办法?

我有一系列实例,每个实例都有一份列表,代表它所遵循的不…

f1_score metric in lightgbm

我想使用自定义指标f1_score来训练一个lgb模型…

通过相关系数矩阵进行特征选择

我在测试不同的算法时,如逻辑回归、高斯朴素贝叶斯、随机…

可以将机器学习库用于流式输入和输出吗?

已关闭。此问题需要更加聚焦。目前不接受回答。 想要改进…

在TensorFlow中,queue.dequeue_up_to()方法的用途是什么?

我对这个方法感到非常困惑,特别是当我发现这个令人费解的…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注