在scikit-learn文档中提到,”norm”参数可以是以下之一:
norm : ‘l1’, ‘l2’, 或 ‘max’,可选(默认为’l2’)
用于归一化每个非零样本(或如果axis为0则为每个非零特征)的范数。
关于归一化的文档并未明确说明’l1’、’l2’或’max’是如何计算的。
有谁能解释清楚这些吗?
回答:
非正式地讲,范数是长度(向量长度)的泛化;根据维基百科条目的说法:
在线性代数、泛函分析以及相关的数学领域中,范数是一个为向量空间中的每个向量赋予严格正的长度或大小的函数。
L2范数是通常的欧几里得长度,即向量元素平方和的平方根。
L1范数是向量元素绝对值的和。
最大范数(有时也称为无穷范数)只是向量元素的最大绝对值。
正如文档所述,这里归一化意味着使我们的向量(即数据样本)具有单位长度,因此也需要指定使用哪种长度(即哪种范数)。
您可以轻松地通过调整文档中的示例来验证上述内容:
from sklearn import preprocessing import numpy as npX = [[ 1., -1., 2.], [ 2., 0., 0.], [ 0., 1., -1.]]X_l1 = preprocessing.normalize(X, norm='l1')X_l1# array([[ 0.25, -0.25, 0.5 ],# [ 1. , 0. , 0. ],# [ 0. , 0.5 , -0.5 ]])
您可以通过简单地目视检查来验证X_l1
元素的绝对值之和确实为1。
X_l2 = preprocessing.normalize(X, norm='l2')X_l2# array([[ 0.40824829, -0.40824829, 0.81649658],# [ 1. , 0. , 0. ],# [ 0. , 0.70710678, -0.70710678]])np.sqrt(np.sum(X_l2**2, axis=1)) # 验证L2范数确实为1# array([ 1., 1., 1.])