我有一个维度为m*n的矩阵M。M包含n个数据,每个数据有m维,且m远大于n。
我的问题是,如何计算或步骤和程序是什么,使用OpenCV中的SVD来找到M的PCA,只保留那些包含总负载或能量99%的特征向量?
回答:
你需要首先从你的数据矩阵M计算协方差矩阵C。你可以使用OpenCV的calcCovarMatrix函数,或者简单地计算C = (M – mu)’ x (M – mu),其中我假设你的数据样本按行存储在M中,mu是你的数据样本的均值,A’是矩阵A的转置。
接下来,对C进行SVD分解,得到USU’ = SVD(C),其中U’是U的转置。在这种情况下,SVD中的V’与U’相同,因为C是对称且正定的(如果C是满秩的)或半正定的(如果它是秩亏的)。U包含C的特征向量。
你想要做的是保留k个特征向量,即U的k个列(或行?你需要查看OpenCV文档,了解它是返回特征向量作为行还是列)其对应的矩阵S中的奇异值对应于k个最大的奇异值,并且它们的总和除以所有奇异值的总和大于等于0.99。基本上,这里的奇异值对应于你的特征向量中每个相应特征的方差,你保留前k个保留0.99,即99%的方差/能量。
这些特征向量打包成一个矩阵,比如Uk,就是你的PCA基。因为这些特征向量也恰好是彼此正交的,Uk的转置,Uk’,是投影矩阵。要得到一个新的测试样本x的降维点,只需计算x_reduced = Uk’*(x – mu);