我一直在测试PCA和LDA在分类三种不同类型的图像标签方面的表现,这些标签是我希望自动识别的。在我的代码中,X是我的数据矩阵,每一行都是来自一张图像的像素,而y是一个一维数组,表示每一行的分类。
import matplotlib.pyplot as pltfrom sklearn import datasetsfrom sklearn.decomposition import PCAfrom sklearn.lda import LDApca = PCA(n_components=2)X_r = pca.fit(X).transform(X)plt.figure(figsize = (35, 20))plt.scatter(X_r[:, 0], X_r[:, 1], c=y, s=200)lda = LDA(n_components=2)X_lda = lda.fit(X, y).transform(X)plt.figure(figsize = (35, 20))plt.scatter(X_lda[:, 0], X_lda[:, 1], c=y, s=200)
使用LDA后,我得到了三个明显可区分的聚类,彼此之间只有轻微的重叠。现在,如果我有一张新的图像想要分类,一旦我将其转换为一维数组,我该如何预测它应该属于哪个聚类?如果它离中心太远,我又该如何判定分类结果为“无法确定”?我还很好奇“.transform(X)”函数在模型拟合后对我的数据做了什么?
回答:
在用一些数据X
训练了你的LDA模型后,你可能希望投影一些其他数据Z
。在这种情况下,你应该做的是:
lda = LDA(n_components=2) #创建一个LDA对象lda = lda.fit(X, y) #学习投影矩阵X_lda = lda.transform(X) #使用模型投影X # .... 获取Z作为测试数据....Z = lda.transform(Z) #使用模型投影Zz_labels = lda.predict(Z) #为每个样本提供预测的标签z_prob = lda.predict_proba(Z) #每个样本属于每个类的概率
请注意,’fit’用于拟合模型,而不是拟合数据。
因此,transform
用于构建表示(在本例中为投影),而predict
用于预测每个样本的标签。(这适用于scikit-learn中所有继承自BaseEstimator
的类。)
你可以阅读文档以了解更多选项和属性。
此外,scikit-learn的API允许你使用pca.fit_transform(X)
代替pca.fit(X).transform(X)
。当你对代码中此点之后的模型本身不感兴趣时,请使用此版本。
一些评论:由于PCA是一种无监督方法,LDA是进行这种“视觉”分类的更好方法。
此外,如果你对分类感兴趣,你可以考虑使用不同类型的分类器,而不一定是LDA,尽管LDA对于可视化来说是一个很好的方法。