问题
我在Python中实现了一个K-Means算法。首先,我对输入数据应用了PCA和白化处理。然后,我使用k-means成功地从数据中提取了k个中心点。
我如何使用这些中心点来理解所“学习”的“特征”?这些中心点是否已经是特征(对我来说似乎不是这样),还是我需要将它们与输入数据重新结合?
由于一些回答:K-means不仅仅是一种聚类方法,它还是一种向量量化方法。也就是说,k-means的目标是用较少的特征向量来描述数据集。因此,它与稀疏过滤/学习等方法在潜在结果上有着很大的相似性。
代码示例
# 执行K-means,数据已预处理
centroids = k_means(matrix_pca_whitened,1000)
# 将数据分配到中心点
idx,_ = vq(song_matrix_pca,centroids)
回答:
实际上,这些中心点就是所学习的特征。因为k-means是一种向量量化方法,我们查找哪个观测值属于哪个簇,因此最适合用特征向量(中心点)来描述。
例如,如果一个观测值之前被分成10个部分,那么这个观测值最多可能包含10个特征向量。
示例:
方法:K-means,k=10
数据集:20个观测值,每个观测值分为2个部分 = 40个数据向量
我们现在对这个分块的数据集执行K-means,并获取每个部分的最近中心点。然后,我们可以为这20个观测值中的每一个创建一个长度为10(=k)的向量,如果第一部分属于中心点5,第二部分属于中心点9,那么向量可能看起来像:0 – 0 – 0 – 0 – 1 – 0 – 0 – 0 – 1 – 0。
这意味着这个观测值由中心点/特征5和9组成。你也可以使用部分与中心点之间的距离来代替这种硬性分配。