For a given dataset of 2-D input data, we apply the SVM learningalgorithm and achieve an optimal decision plane:H(x) = x^1 + 2x^2 + 3What is the margin of this SVM?
我已经看了几个小时,试图找出如何回答这个问题。我认为这应该相对简单,但我一直在查找学习材料,却找不到应该如何回答这个问题。
我希望能得到一些关于解决这个问题所需步骤的帮助。
谢谢。
回答:
仅凭给出的最优决策平面无法计算边距。你应该提供支持向量或至少提供类别的样本。
无论如何,你可以按照以下步骤进行:
1- 计算拉格朗日乘数(alphas)。我不知道你在哪个环境下工作,但你可以使用MATLAB的二次规划求解器:quadprog()
,使用起来并不难。
2- 找出支持向量。记住,只有支持向量的alphas不等于零(但其他样本的alphas等于零),所以你可以找出类别的支持向量。
3- 计算w
向量,这是一个与最优超平面正交的向量。你知道,可以使用下面的求和来计算这个向量:
其中,
alpha(i): 支持向量的alphas(拉格朗日乘数); y(i) : 样本的标签(比如-1或+1); phi() : 核函数; x(i) : 支持向量。
4- 从每个类别中各取一个支持向量,假设一个是来自类别1的SV1
,另一个是来自类别2的SV2
。现在你可以使用向量投影和点积来计算边距:
margin = < (SV1 - SV2), w > / norm(w)
其中,
<(SV1 - SV2), w> : 向量(SV1 - SV2)和向量w的点积norm(w) : 向量w的范数