奇异值分解(SVD)原理与在降维中的应用

奇异值分解(Singular Value Decomposition,以下简称SVD)是在机器学习领域广泛应用的算法,它不光可以用于降维算法中的特征分解,还可以用于推荐系统,以及自然语言处理等领域。是很多机器学习算法的基石。本文就对SVD的原理做一个总结,并讨论在在PCA降维算法中是如何运用运用SVD的。

1. 回顾特征值和特征向量

奇异值分解(SVD)原理与在降维中的应用

2. SVD的定义

奇异值分解(SVD)原理与在降维中的应用
奇异值分解(SVD)原理与在降维中的应用
奇异值分解(SVD)原理与在降维中的应用

3. SVD计算举例

奇异值分解(SVD)原理与在降维中的应用
奇异值分解(SVD)原理与在降维中的应用

4. SVD的一些性质

奇异值分解(SVD)原理与在降维中的应用

5. SVD用于PCA

奇异值分解(SVD)原理与在降维中的应用

SVD小结

SVD作为一个很基本的算法,在很多机器学习算法中都有它的身影,特别是在现在的大数据时代,由于SVD可以实现并行化,因此更是大展身手。SVD的原理不难,只要有基本的线性代数知识就可以理解,实现也很简单因此值得仔细的研究。当然,SVD的缺点是分解出的矩阵解释性往往不强,有点黑盒子的味道,不过这不影响它的使用。

(欢迎转载,转载请注明出处。欢迎沟通交流: [email protected]