我在阅读Andrew NG的机器学习笔记时,对功能边界的定义感到困惑:
我能理解几何边界是x到其超平面的距离,但如何理解功能边界呢?为什么他们这样定义其公式?
回答:
可以这样理解:w^T.x_i + b 是模型对第i个数据点的预测。Y_i 是它的标签。如果预测和真实标签的符号相同,那么gamma_i 将是正值。这个实例在类边界内越“深”,gamma_i 就越大:这更好,因为对所有i求和时,你将在类之间有更大的分离。如果预测和标签的符号不一致,那么这个量将是负值(预测器的错误决策),这将减少你的边界,而且错误越大,边界减少得越多(类似于松弛变量)。