EM算法--expectation maximization
老师课堂总结,请勿转载
重新思考分类或聚类
我们转换思路, 将聚类看做一类缺失值估计问题。缺失的值就是每个样本的类别标签
令 D = {x(1),x(2),…x(n)} 表示一组观测值
令H = {z(1),z(2),..z(n)} 表示隐含变量Z的n个取值.
z(i) 与x(i)一一对应
观测值的对数似然函数可表示为
在MLE中我们之估计 ,但在包含隐含变量的问题中我们还需要估计H. 令Q(H)表示隐含变量的概率
似然函数
生成式的思想是一种反转思想. 与其找到最好的分类器,不如找到一个最好数据生成器. 该生成器能使得数据的似然函数最大. 数据的概率在上面公式中相对固定,所以最大化似然函数是关键.
Jensen不等式—下凸型
Inequality is because of Jensen’s Inequality.
This means that the F(Q,θ) is a lower bound on l(θ)
Notice that the log of sums is become a sum of logs
混合模型
复杂样本分布很难用单一概率密度函数刻画准确,这就引出利用混合模型“ 生成”数据的想法
EM在下面两步之间循环迭代:
将Q看做变量最大化F
将θ看做变量最大化F
反复迭代上述两个步骤,直至算法收敛
EM算法与K-means
EM考虑全面,不管是圈内圈外 期望可大可小
K-means只是考虑圈内的点 对 期望的影响 要么是0要是是1
EM算法与k-means算法具有很多相似性.
The E步就是赋值操作即计算临时的后验概率或类别标签
M步是更新各类别的中心
The maximization step is the update of centers.