在sklearn和numpy中,有不同的方法来计算第一主成分。我对每种方法得到的结果不同。为什么会这样?
import matplotlib.pyplot as plfrom sklearn import decompositionimport scipy as spimport sklearn.preprocessingimport numpy as npimport sklearn as skdef gen_data_3_1(): #### 生成数据3.1 m=1000 # 样本数量 n=10 # 变量数量 d1=np.random.normal(loc=0,scale=100,size=(m,1)) d2=np.random.normal(loc=0,scale=121,size=(m,1)) d3=-0.2*d1+0.9*d2 z=np.zeros(shape=(m,1)) for i in range(4): z=np.hstack([z,d1+np.random.normal(size=(m,1))]) for i in range(4): z=np.hstack([z,d2+np.random.normal(size=(m,1))]) for i in range(2): z=np.hstack([z,d3+np.random.normal(size=(m,1))]) z=z[:,1:11] z=sk.preprocessing.scale(z,axis=0) return zx=gen_data_3_1() #生成样本数据集x=sk.preprocessing.scale(x) #标准化数据pca=sk.decomposition.PCA().fit(x) #计算x的PCA并打印第一主成分print "first pca components=",pca.components_[:,0]u,s,v=sp.sparse.linalg.svds(x) # v.T的第一列是第一主成分print "first svd components=",v.T[:,0]trsvd=sk.decomposition.TruncatedSVD(n_components=3).fit(x) #第一成分是第一主成分print "first component TruncatedSVD=",trsvd.components_[0,]
—
first pca components= [-0.04201262 0.49555992 0.53885401 -0.67007959 0.0217131 -0.02535204 0.03105254 -0.07313795 -0.07640555 -0.00442718] first svd components= [ 0.02535204 -0.1317925 0.12071112 -0.0323422 0.20165568 -0.25104996 -0.0278177 0.17856688 -0.69344318 0.59089451] first component TruncatedSVD= [-0.04201262 -0.04230353 -0.04213402 -0.04221069 0.4058159 0.40584108 0.40581564 0.40584842 0.40872029 0.40870925]
回答:
因为PCA、SVD和截断SVD这三种方法是不一样的。PCA调用SVD,但在调用之前会对数据进行中心化处理。截断SVD会截断向量。svds
与svd
不同,因为它是针对稀疏矩阵的。