from sklearn import datasetsfrom sklearn.decomposition import PCAfrom sklearn.decomposition import TruncatedSVD digits = datasets.load_digits()X = digits.dataX = X - X.mean() # 居中数据#### svdsvd = TruncatedSVD(n_components=5)svd.fit(X)print(svd.explained_variance_ration)#### PCApca = PCA(n_components=5)pca.fit(X)print(pca.explained_variance_ratio_)
svd 输出为:
array([0.02049911, 0.1489056 , 0.13534811, 0.11738598, 0.08382797])
pca 输出为:
array([0.14890594, 0.13618771, 0.11794594, 0.08409979, 0.05782415])
TruncatedSVD 的实现是否存在错误?还是为什么第一个解释方差(0.02…)表现得如此?或者其含义是什么?
回答:
摘要:
这是因为 TruncatedSVD
和 PCA
使用了不同的 SVD
函数!
注意:你的情况属于下面的原因2,但我还包括了另一个原因供未来的读者参考。
详情:
原因1:用户在每种算法中设置的求解器不同:
PCA
内部使用 scipy.linalg.svd,它对奇异值进行排序,因此 explained_variance_ratio_
是排序的。
Scikit 的 PCA
实现的一部分:
# 居中数据U, S, Vt = linalg.svd(X, full_matrices=False)# 翻转特征向量的符号以强制确定性输出U, Vt = svd_flip(U, Vt)components_ = Vt# 获取奇异值解释的方差explained_variance_ = (S ** 2) / (n_samples - 1)total_var = explained_variance_.sum()explained_variance_ratio_ = explained_variance_ / total_var
来自上述 scipy.linalg.svd
链接的截图:
另一方面,TruncatedSVD
使用 scipy.sparse.linalg.svds,它依赖于 ARPACK
求解器进行分解。
来自上述 scipy.sparse.linalg.svds
链接的截图:
原因2:TruncatedSVD
与 PCA
的操作方式不同:
在你的案例中,你在两种算法中都选择了 randomized
作为求解器(这是默认设置),但你得到了关于方差顺序的不同结果。
这是因为在 PCA
中,方差是从实际的奇异值(在 Scikit-Learn 实现中称为 Sigma
或 S
)中获得的,这些值已经排序:
另一方面,TruncatedSVD
中的方差是从 X_transformed
获得的,这是通过将数据矩阵乘以组件得到的。后者不一定保持顺序,因为数据未居中,也不是 TruncatedSVD
的目的,它首先用于稀疏矩阵:
现在如果你居中你的数据,你将得到排序的结果(请注意,你没有正确地居中数据,因为居中需要除以标准差):
from sklearn import datasetsfrom sklearn.decomposition import TruncatedSVDfrom sklearn.preprocessing import StandardScalerdigits = datasets.load_digits()X = digits.datasc = StandardScaler()X = sc.fit_transform(X)### SVDsvd = TruncatedSVD(n_components=5, algorithm='randomized', random_state=2021)svd.fit(X)print(svd.explained_variance_ratio_)
输出
[0.12033916 0.09561054 0.08444415 0.06498406 0.04860093]