我有一组图像。我想学习一个一类SVM(OC-SVM)来建模特定类别(正类)的分布,因为我没有足够的例子来代表其他类别(负类)。我对OC-SVM的理解是,它试图将数据与原点分开,或者换句话说,它试图学习一个超球体来适应一类数据。
我的问题是,
-
如果我想将OC-SVM的输出用作概率估计,我该怎么做?
-
一类SVM与任何聚类算法(例如k-means)有什么区别?
回答:
如果你想要一个概率估计,不要使用一类SVM。这不是它们被设计的用途。你需要的是像核密度估计这样的方法,它可以根据一些正例提供非参数密度估计。
一类SVM与聚类的区别在于,在聚类中,你得到的是来自多个类别的点,但你不知道哪些点对应哪些类别:这是推断的目标(你也可能得到类别的密度估计以及整个特征空间的边缘密度)。一类SVM只得到来自一个类别的点,并期望学习出该类别成员与其他任何东西之间的分离。
编辑:聚类与密度估计不同。聚类关注于确定哪些实例属于哪些类别(聚类),当分配未知时,并不一定导致提供的例子与输入空间中任何点的相似性得分。
如果目标是说,这个新实例与我见过的正训练例子有多相似,那么你要做的就是为你的训练例子拟合一个概率分布,然后在新点处评估密度函数。如果这个密度低于某个阈值,你就说新点不在由提供的例子定义的类别之外。
如果你喜欢,你可以构建一个类别的参数模型,但这通常很棘手,除非你对问题有所了解,或者愿意采用标准分布(多元正态分布或朴素贝叶斯是两个明显的选择)。因此,另一种选择是使用非参数密度估计。这就是我提到的核密度估计。