机器学习之经典算法(十六) Birch算法

    (一)  Birch算法简介:

    BIRCH(Balanced Iterative Reducing and Clustering Using Hierarchies)全称是:利用层次方法的平衡迭代规约和聚类。BIRCH算法是1996年由Tian Zhang提出来的。Birch算法就是通过聚类特征(CF)形成一个聚类特征树,root层的CF个数就是聚类个数。

      整个算法实现共分为4个阶段:

    1.  扫描所有数据,建立初始化的CF树,把稠密数据分成簇,稀疏数据作为孤立点对待。

    2.  这个阶段是可选的,阶段3的全局或半全局聚类算法有着输入范围的要求,以达到速度与质量的要求,所以此阶段在阶段1的基础上,建立一个更小的CF树。

    3.  补救由于输入顺序和页面大小带来的分裂,使用全局/半全局算法对全部叶节点进行聚类。

    4.  这个阶段也是可选的,把阶段3的中心点作为种子,将数据点重新分配到最近的种子上,保证重复数据分到同一个簇中,同时添加簇标签。

    算法缺点:由于使用半径和直径概念,特别适用于球形数据的聚类(可以在聚类前进行样本绘图观察后选择该算法)。

    聚类特征(CF):每一个CF都是一个三元组,可以用(N,LS,SS)表示。其中N代表了这个CF中拥有的样本点的数量;LS代表了这个CF中拥有的样本点各特征维度的和向量,SS代表了这个CF中拥有的样本点各特征维度的平方和。

    比如:CF中含有N=5个点,以两维样本点值为:(3,4)、(2,6)、(4,5)、(4,7)、(3,8)。

    然后计算:

        LS=(3+2+4+4+3,4+6+5+7+8)=(16,30)

        SS =(32+22+42+42+32,42+62+52+72+82)=(54,190)

机器学习之经典算法(十六) Birch算法

        对于上图中的CF Tree,限定了B=7,L=5也就是说内部节点最多有7CF(含有的分支点数目),而叶子节点最多有5CF(每个叶子还有的CF个数,实际上就是每个叶子中包含的样本数目)。叶子节点是通过双向链表连通的。

        (二) sklearn算法中的应用举例:

        Birch算法在sklearn.cluster中。

        算法涉及主要参数:

(1)      n_clusters :簇数。

(2)      threshold :扫描阈值。

(3)      branches_factor:每个节点中CF子集群的最大数量,默认值为50。

 最后通过读取:labels_ :来获知每个数据点的分类情况。

代码如下:

import numpy asnp

import matplotlib.pyplot as plt

from sklearn.datasets.samples_generator import make_blobs

from sklearn.cluster import Birch 

# X为样本特征,Y为样本簇类别, 共500个样本,每个样本2个特征,共4个簇,簇中心在[-1,-1],[0,0],[1,1], [2,2]

X, y =make_blobs(n_samples=500, n_features=2, centers=[[-1,-1], [0,0], [1,1], [2,2]],cluster_std=[0.5, 0.4, 0.5, 0.4],

                  random_state =9)

##设置birch函数

birch = Birch(n_clusters= None)

##训练数据

y_pred =birch.fit_predict(X)

##绘图

plt.figure()

plt.subplot(2,2,1)

plt.scatter(X[:,0],X[:,1])

plt.title('DataSample')

plt.subplot(2,2,2)

plt.scatter(X[:,0], X[:, 1], c=y_pred)

plt.title('None') 

##设置birch函数

birch =Birch(n_clusters = 4)

##训练数据

y_pred =birch.fit_predict(X)

plt.subplot(2,2,3)

plt.scatter(X[:,0], X[:, 1], c=y_pred)

plt.title('n_clusters=4')

plt.show()

最后效果如下:

机器学习之经典算法(十六) Birch算法

参考文献:

https://blog.****.net/qll125596718/article/details/68952911等。