李宏毅机器学习2016 第十二讲 无监督学习:线性维数约减

视频链接:李宏毅机器学习(2016)_演讲•公开课_科技_bilibili_哔哩哔哩

课程资源:Hung-yi Lee

课程相关PPT已经打包命名好了:链接:https://pan.baidu.com/s/1c3Jyh6S 密码:77u5


我的第十一讲笔记:李宏毅机器学习2016 第十一讲 半监督学习


Unsupervised Learning:Linear Dimension Reduction


本章主要介绍了无监督学习,讲解了聚类的方法和PCA,一种线性维度约减方法。


1.监督学习(Unsupervised Learning)

李宏毅机器学习2016 第十二讲 无监督学习:线性维数约减

无监督学习主要分为两类,一种是聚类(Clustering)&维数约减(Dimension Reduction),能够使复杂变简单,化繁为简;另一种是生成(Generation),无中生有。本章主要讲解前者。


2.聚类(Clustering)

李宏毅机器学习2016 第十二讲 无监督学习:线性维数约减

K-means是一种比较基本的分类方法。算法描述如下:

李宏毅机器学习2016 第十二讲 无监督学习:线性维数约减

另一种聚类方法:层次凝聚聚类(Hierarchical Agglomerative Clustering)

李宏毅机器学习2016 第十二讲 无监督学习:线性维数约减

首先是建立一棵树,其想法有点类似哈弗曼编码,第二部是选择一个阈值,据此来确定到底分成多少类,例如蓝色的那条线就将这五个样本分成了三个类。


3.主成分分析(Principal Component Analysis, 简称PCA)


PCA是一种常用的基于变量协方差矩阵对信息进行处理、压缩和抽提的有效方法。

在此我引用我的研究生导师 徐勇个人主页 的模式识别课程上讲解PCAPPT作为本次笔记。

基于PCA算法的人脸识别:

训练阶段

李宏毅机器学习2016 第十二讲 无监督学习:线性维数约减
李宏毅机器学习2016 第十二讲 无监督学习:线性维数约减
李宏毅机器学习2016 第十二讲 无监督学习:线性维数约减
李宏毅机器学习2016 第十二讲 无监督学习:线性维数约减
李宏毅机器学习2016 第十二讲 无监督学习:线性维数约减
李宏毅机器学习2016 第十二讲 无监督学习:线性维数约减
李宏毅机器学习2016 第十二讲 无监督学习:线性维数约减
李宏毅机器学习2016 第十二讲 无监督学习:线性维数约减

在测试阶段:

李宏毅机器学习2016 第十二讲 无监督学习:线性维数约减

PCA的优点:

①减少了维数(Dimensionality reduction )

②捕获了最终要的组件 (Capture the components that vary the most from the original data )

③最小化重构误差(Minimum reconstruction error)

④去相关性(Decorrelation)

PCA的缺点:

李宏毅机器学习2016 第十二讲 无监督学习:线性维数约减

对于非线性的曲面,效果非常不好。此时可考虑LDA,一种考虑标签的有监督的降维方法。


4.总结


本章集中讲解了无监督学习中的线性维数约减,PCA方法。