我需要进行聚类分析,但事先不知道聚类的数量。聚类的数量可能从1到5不等,因为我可能会遇到所有样本属于同一实例的情况,或者属于有限数量的组。我认为亲和传播可能是我的选择,因为我可以通过设置偏好参数来控制聚类的数量。然而,如果我人为生成一个单一的聚类,并将偏好值设置为节点间的最小欧几里得距离(以最小化聚类的数量),我会得到非常糟糕的过度聚类现象。
"""=================================================亲和传播聚类算法的演示=================================================参考文献:Brendan J. Frey和Delbert Dueck, "Clustering by Passing MessagesBetween Data Points", Science Feb. 2007"""print(__doc__)import numpy as npfrom sklearn.cluster import AffinityPropagationfrom sklearn import metricsfrom sklearn.datasets.samples_generator import make_blobsfrom scipy.spatial.distance import pdist############################################################################### 生成样本数据centers = [[0,0],[1,1]]X, labels_true = make_blobs(n_samples=300, centers=centers, cluster_std=0.5, random_state=0)init = np.min(pdist(X))############################################################################### 计算亲和传播af = AffinityPropagation(preference=init).fit(X)cluster_centers_indices = af.cluster_centers_indices_labels = af.labels_n_clusters_ = len(cluster_centers_indices)print('估计的聚类数量: %d' % n_clusters_)print("同质性: %0.3f" % metrics.homogeneity_score(labels_true, labels))print("完整性: %0.3f" % metrics.completeness_score(labels_true, labels))print("V-measure: %0.3f" % metrics.v_measure_score(labels_true, labels))print("调整后的兰德指数: %0.3f" % metrics.adjusted_rand_score(labels_true, labels))print("调整后的互信息: %0.3f" % metrics.adjusted_mutual_info_score(labels_true, labels))print("轮廓系数: %0.3f" % metrics.silhouette_score(X, labels, metric='sqeuclidean'))############################################################################### 绘制结果import matplotlib.pyplot as pltfrom itertools import cycleplt.close('all')plt.figure(1)plt.clf()colors = cycle('bgrcmykbgrcmykbgrcmykbgrcmyk')for k, col in zip(range(n_clusters_), colors): class_members = labels == k cluster_center = X[cluster_centers_indices[k]] plt.plot(X[class_members, 0], X[class_members, 1], col + '.') plt.plot(cluster_center[0], cluster_center[1], 'o', markerfacecolor=col, markeredgecolor='k', markersize=14) for x in X[class_members]: plt.plot([cluster_center[0], x[0]], [cluster_center[1], x[1]], col)plt.title('估计的聚类数量: %d' % n_clusters_)plt.show()
我的使用亲和传播的方法是否存在缺陷?反过来,亲和传播是否不适合这项任务,所以我应该使用其他方法吗?
回答:
不,没有缺陷。亲和传播不使用距离,而是需要你指定相似性。我对scikit的实现不是很熟悉,但根据我所读到的,它默认使用负平方欧几里得距离来计算相似性矩阵。如果你将输入的偏好值设置为最小欧几里得距离,你会得到一个正值,而所有相似性都是负的。因此,这通常会导致聚类的数量与样本的数量相同(注意:输入的偏好值越高,聚类的数量就越多)。我建议你将输入的偏好值设置为最小负平方距离,即数据集中最大距离的平方的负1倍。这将给你一个更少的聚类数量,但不一定是单一聚类。我不知道scikit实现中是否存在preferenceRange()函数。在AP主页上有Matlab代码,并且它也在我在维护的R包’apcluster’中实现。这个函数允许确定输入偏好参数的有意义的界限。希望这对你有帮助。