15、【李宏毅机器学习(2017)】Unsupervised Learning: Neighbor Embedding(无监督学习:邻域嵌套)

上一篇博客介绍了无监督学习在文字中的降维方法——Word Embedding,本篇博客将继续介绍无监督学习算法的降维方法——Neighbor Embedding。


目录


Locally Linear Embedding (LLE)

  • 现在考虑xixj两点,wij表示xixj这两点的关系,现在要找到所有wij使得下式最小。
    15、【李宏毅机器学习(2017)】Unsupervised Learning: Neighbor Embedding(无监督学习:邻域嵌套)

  • 利用上一步求得的w在转化后的数据空间最小化下式
    15、【李宏毅机器学习(2017)】Unsupervised Learning: Neighbor Embedding(无监督学习:邻域嵌套)

Laplacian Eigenmaps

半监督学习的博客中详细介绍过类似的思维。
15、【李宏毅机器学习(2017)】Unsupervised Learning: Neighbor Embedding(无监督学习:邻域嵌套)

现在应用在无监督学习中,算法如下。
15、【李宏毅机器学习(2017)】Unsupervised Learning: Neighbor Embedding(无监督学习:邻域嵌套)

T-distributed Stochastic Neighbor Embedding (t-SNE)

t-SNE算法

上述两个方法都存在一个问题:算法说明了原来数据空间上很近的两个点在转化后的新数据空间上会很近,但是并没有说明原来数据空间上很远的两个点在转化后的新数据空间会怎么样,因此会出现本来不相关的数据在降维之后聚集在了一起。t-SNE可以解决这一问题,算法如下,xixj是原数据,zizj是降维后的数据,然后利用KL散度计算降维前后分布的相似度。

KL散度计算降维前后分布的相似度可以不管量纲
15、【李宏毅机器学习(2017)】Unsupervised Learning: Neighbor Embedding(无监督学习:邻域嵌套)

t-SNE –Similarity Measure

  • SNE对距离很远的不敏感
  • t-SNE会尽量扩大原数据的差异(降维空间分得很开)

15、【李宏毅机器学习(2017)】Unsupervised Learning: Neighbor Embedding(无监督学习:邻域嵌套)