在sklearn的文档中,函数KNeighborsClassifier的参数weights="distance"
被解释如下:
‘distance’:根据距离的倒数对点进行加权。在这种情况下,查询点附近的邻居将比更远的邻居具有更大的影响力。
虽然我理解对邻近点进行加权然后计算加权点的平均值来进行预测是合理的,例如使用KNeighborsRegressor… 然而,我不明白在分类算法中如何使用权重。根据书籍The Elements of Statistical Learning的说法,KNN分类是基于多数投票的。不是吗?
回答:
在分类过程中,权重将在计算邻居的众数时使用(不是使用频率,而是使用权重的总和来计算众数)。
要了解更多详情,请查看这里的实际实现。
来自文档的例子:
>>> from sklearn.utils.extmath import weighted_mode>>> x = [4, 1, 4, 2, 4, 2]>>> weights = [1, 1, 1, 1, 1, 1]>>> weighted_mode(x, weights)(array([4.]), array([3.]))值4出现了三次:在均匀权重下,结果只是分布的众数。>>>>>> weights = [1, 3, 0.5, 1.5, 1, 2] # 降低4的权重>>> weighted_mode(x, weights)(array([2.]), array([3.5]))
您可以查看这里的实现