如何获取垃圾信息的概率而不是分类

我正在开发一个工具,用于计算文本评论是假的(垃圾信息)还是真实的概率。

我有一组标注过的评论数据集,这些评论被标记为垃圾信息或非垃圾信息。我使用了SVM来构建分类器,但它只能对输入文档进行垃圾信息或非垃圾信息的分类。然而,我想要一个工具,能够输出一个介于0和1之间的数字,代表文档是垃圾信息的概率。请问有人能指导我正确的方向吗?


回答:

如果你想要一个连续值的得分(而不是明确的概率),你可以直接使用SVM中到超平面的距离。这是一个标准的信心度量,你可以将其视为点在类别中的“深入”程度。

如果你想将分类作为更广泛的概率模型的一部分,需要一个具有真正概率解释的东西,你可以使用一些将SVM得分转换为概率的方法,但这些方法有些牵强附会,理论基础并不完善。相反,我建议你看看逻辑回归分类器,有时也称为最大熵分类器,这是一个健壮的概率替代方案。它具有像SVM这样的判别模型的优点,但具有自然且内在的概率基础。

Related Posts

L1-L2正则化的不同系数

我想对网络的权重同时应用L1和L2正则化。然而,我找不…

使用scikit-learn的无监督方法将列表分类成不同组别,有没有办法?

我有一系列实例,每个实例都有一份列表,代表它所遵循的不…

f1_score metric in lightgbm

我想使用自定义指标f1_score来训练一个lgb模型…

通过相关系数矩阵进行特征选择

我在测试不同的算法时,如逻辑回归、高斯朴素贝叶斯、随机…

可以将机器学习库用于流式输入和输出吗?

已关闭。此问题需要更加聚焦。目前不接受回答。 想要改进…

在TensorFlow中,queue.dequeue_up_to()方法的用途是什么?

我对这个方法感到非常困惑,特别是当我发现这个令人费解的…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注