【机器学习个人笔记】part7——用sklearn实现聚类——K-Means算法

1.k-means聚类的步骤

  1. 选择想要分类的个数K
  2. 在平面中随机选择K个点(并不需要找数据中的点)
  3. 分配:依据数据集中的每个点到K个点的距离,找到每个点对应的最短距离的点(比如m1离k3最近),这样数据集将分成K类
  4. 更新:寻找每个类的中心点,将其设置为K点
  5. 循环步骤3、4直到中心点就是K点

大致过程:
【机器学习个人笔记】part7——用sklearn实现聚类——K-Means算法
【机器学习个人笔记】part7——用sklearn实现聚类——K-Means算法
【机器学习个人笔记】part7——用sklearn实现聚类——K-Means算法
【机器学习个人笔记】part7——用sklearn实现聚类——K-Means算法
【机器学习个人笔记】part7——用sklearn实现聚类——K-Means算法
【机器学习个人笔记】part7——用sklearn实现聚类——K-Means算法
【机器学习个人笔记】part7——用sklearn实现聚类——K-Means算法
【机器学习个人笔记】part7——用sklearn实现聚类——K-Means算法
【机器学习个人笔记】part7——用sklearn实现聚类——K-Means算法
【机器学习个人笔记】part7——用sklearn实现聚类——K-Means算法
【机器学习个人笔记】part7——用sklearn实现聚类——K-Means算法
【机器学习个人笔记】part7——用sklearn实现聚类——K-Means算法

2.随机初始化陷阱

在运行 K-均值算法的之前,我们首先要随机初始化所有的聚类中心点,下面介绍怎样
做:

  1. 我们应该选择 K<m,即聚类中心点的个数要小于所有训练集实例的数量
  2. 随机选择 K 个训练实例,然后令 K 个聚类中心分别与这 K 个训练实例相等K-均值的一个问题在于,它有可能会停留在一个局部最小值处,而这取决于初始化的情况。根据初始化的情况还可能出现不同的分类情况。

如图:
理想情况:
【机器学习个人笔记】part7——用sklearn实现聚类——K-Means算法
实际情况:
【机器学习个人笔记】part7——用sklearn实现聚类——K-Means算法
实际的结果和理想的结果相差很大,但很难说哪种聚类方式是对的,哪种聚类方式是错的,因为他们都有各自的道理.
说明初始化的中心点对于最终结果有决定性的作用

我们应该如何解决这类问题呢?
使用kmeans++算法,推荐博客:简单易学的机器学习算法——K-Means++算法

3.如何选择聚类数?手肘法则

没有所谓最好的选择聚类数的方法,通常是需要根据不同的问题,人工进行选择的。选择的时候思考我们运用 K-均值算法聚类的动机是什么,然后选择能最好服务于该目的标聚类数。
当人们在讨论,选择聚类数目的方法时,有一个可能会谈及的方法叫作“肘部法则”。关于“肘部法则”,我们所需要做的是改变 K 值,也就是聚类类别数目的总数。我们用一个类来运行 K 均值聚类方法。这就意味着,所有的数据都会分到一个聚类里,然后计算成本函数或者计算畸变函数 J。K 代表聚类数字。

运用手肘法则之前,我们必须引入一个概念:组内平方和
组内平方和又称残差平方和、误差平方和等,根据n个观察值拟合适当的模型后,余下未能拟合部份(ei=yi一y平均)称为残差,其中y平均表示n个观察值的平均值,所有n个残差平方之和称误差平方和。在回归分析中通常用SSE表示,其大小用来表明函数拟合的好坏。将残差平方和除以*度n-p-1(其中p为自变量个数)可以作为误差方差σ2的无偏估计,通常用来检验拟合的模型是否显著。
【机器学习个人笔记】part7——用sklearn实现聚类——K-Means算法
简单来说:

  • 组内平方和越大,样本越’分散’
  • 组内平方和越小,样本越’集中’
    【机器学习个人笔记】part7——用sklearn实现聚类——K-Means算法
    【机器学习个人笔记】part7——用sklearn实现聚类——K-Means算法
    用代码实现手肘法则:
# 创建10个kmeans对象,其集群数分别是1-10,用手肘法则找到最佳的集群数
from sklearn.cluster import KMeans
wcss = []  # 不同组数的组内平方和
for i in range(1,11):
    # 这里设置集群数为i,使用‘k-means++’初始化中心点(也可以用random)
    kmeans = KMeans(n_clusters=i, max_iter=300, n_init=10, 
                    init="k-means++",random_state= 0)
    kmeans.fit(X) # 用X去拟合
    wcss.append(kmeans.inertia_)  # inertia:样本到其最近聚类中心的平方距离之和,即组内平方和

我们可以用plt直观的看出“手肘”在哪。

# 通过图像能够非常直观的看出“手肘”
plt.plot(range(1,11), wcss)
plt.title = 'The Elbow Method'
plt.xlabel = 'Number of Clusters'
plt.ylabel = 'WCSS'
plt.show()  # 由图可见,手肘部位大概是5,即最好分成5个聚类

【机器学习个人笔记】part7——用sklearn实现聚类——K-Means算法

4.用kmeans算法实现聚类

之前我们用手肘法则找出了最佳的集群数为5,我们接下来就创建集群为5的kmeans模型去训练数据。

# 创建集群数是5的kmeans模型
kmeans = KMeans(n_clusters=5, max_iter=300, n_init=10, 
                    init="k-means++",random_state= 0)
# y_kmeans 表示的是每一个用户属于的集群
y_kmeans = kmeans.fit_predict(X)  # 拟合并预测

y_kmeans已经对数据进行集群分类了。
array([4, 3, 4, 3, 4, 3, 4, 3, 4, 3, 4, 3, 4, 3, 4, 3, 4, 3, 4, 3, 4, 3,
4, 3, 4, 3, 4, 3, 4, 3, 4, 3, 4, 3, 4, 3, 4, 3, 4, 3, 4, 3, 4, 1,
4, 3, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1,
1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1,
1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1,
1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 2, 0, 2, 1, 2, 0, 2, 0, 2,
1, 2, 0, 2, 0, 2, 0, 2, 0, 2, 1, 2, 0, 2, 0, 2, 0, 2, 0, 2, 0, 2,
0, 2, 0, 2, 0, 2, 0, 2, 0, 2, 0, 2, 0, 2, 0, 2, 0, 2, 0, 2, 0, 2,
0, 2, 0, 2, 0, 2, 0, 2, 0, 2, 0, 2, 0, 2, 0, 2, 0, 2, 0, 2, 0, 2,
0, 2])

用plt画出最后的效果:

lt.scatter(X[y_kmeans == 0, 0], X[y_kmeans == 0, 1], s=100, c = 'red', label='Careful') 
plt.scatter(X[y_kmeans == 1, 0], X[y_kmeans == 1, 1], s=100, c = 'blue', label='Standard') 
plt.scatter(X[y_kmeans == 2, 0], X[y_kmeans == 2, 1], s=100, c = 'green', label='Target') 
plt.scatter(X[y_kmeans == 3, 0], X[y_kmeans == 3, 1], s=100, c = 'cyan', label='Careless') 
plt.scatter(X[y_kmeans == 4, 0], X[y_kmeans == 4, 1], s=100, c = 'magenta', label='Sensible') 
kmeans.cluster_centers_  # 每个中心点的坐标
plt.scatter(kmeans.cluster_centers_[:,0], kmeans.cluster_centers_[:,1], s=300, c = 'black', label='centroids')
plt.legend()
plt.show()

【机器学习个人笔记】part7——用sklearn实现聚类——K-Means算法

本节代码