假设我的原始数据集有8个特征,我应用PCA
并设置n_components = 3
(我使用的是sklearn.decomposition.PCA
)。然后,我使用这3个PCA成分(它们现在是我的新特征)来训练我的模型。
在预测时我是否也需要应用PCA
?即使我只预测一个数据点,是否也需要这样做?
让我困惑的是,当我进行预测时,每个数据点都是一个二维矩阵中的一行(由我想预测的所有数据点组成)。所以,如果我只对一个数据点应用PCA
,那么对应的行向量将被转换为零向量。
回答:
如果你在PCA的前三个成分上拟合了你的模型,你必须适当地转换任何新数据。例如,请看这段从这里取来的代码:
pca = PCA(n_components=n_components, svd_solver='randomized', whiten=True).fit(X_train)X_train_pca = pca.transform(X_train)X_test_pca = pca.transform(X_test)clf = GridSearchCV(SVC(kernel='rbf', class_weight='balanced'), param_grid)clf = clf.fit(X_train_pca, y_train)y_pred = clf.predict(X_test_pca)
在代码中,他们首先在训练数据上拟合PCA。然后他们转换训练和测试数据,接着在转换后的数据上应用模型(在他们的例子中,是SVM
)。
即使你的X_test
只包含一个数据点,你仍然可以使用PCA
。只需将你的数据转换为二维矩阵。例如,如果你的数据点是[1,2,0,5]
,那么X_test=[[1,2,0,5]]
。也就是说,它是一个有1行的二维矩阵。