【机器学习】Graph-dual Laplacian principal component analysis(gDLPCA)
gDLPCA
参考论文:Graph-dual Laplacian principal component analysis
作者:Jinrong He · Yingzhou Bi · Bin Liu · Zhigao Zeng
思想
近年来,研究表明,高维数据不仅存在于数据空间的低维流形上,特征也存在于特征空间的流形上。然而PCA,gLPCA都忽略了特征空间中包含局部几何结构。
PCA
PCA详见本人另一篇文章【机器学习】【降维】PCA主成分分析
其中是中心化后的数据矩阵,是投影矩阵。
PCA的局限性:
- PCA只能识别线性子空间,不能发现非线性数据流行数据。
- 主成分的解释可能会很困难,虽然主成分分析确定的维度是作为原始特征空间的线性组合构成的不相关变量,但它们仍然没有物理意义。(为提高从PCA中提取主成分的可解释性,提出诸多变体,如:引入非负矩阵分解NMF,或采用稀疏非零载荷的SPCA)
- 对异常值敏感
gLPCA
其中为正则化参数,。
上式固定Y,对V求导:
从而:,带回目标函数得到:
可做以下变换:
所以将目标函数转化为以下最小化公式:
令 ,于是最优的就是的前r个最小特征值对应的特征向量组成的矩阵。
注:这里的X已经中心化
gLPCA的局限性:
- 仍然对异常值敏感
- 只考虑到数据流形,忽略特征流行
gDLPCA
,表示特征数,表示样本数,表示一列(第个样本),表示一行(第个特征)
- 首先,同样与gLPCA,构造样本图:
其中表示的k近邻的集合。对应的样本图拉普拉斯矩阵为 - 其次,对于{}构造特征图:
其中表示的k近邻的集合。对应的特征图拉普拉斯矩阵为 - gDLPCA
其中,都是正则化参数。当时,就是gLPCA,当时,就是PCA。
注意:由于上面目标函数的最优解是不唯一的,因为上式中的迹函数的正交不变性,也就是说,是最优解,只有 对于任意正交矩阵也是最优解时,才成立,说明如下:
目标函数的第一项可以表示为:
目标函数的第二项可以表示为:
显然 是最优解。
优化求解
目标函数的第一项,可被转化为:
带回目标函数得到:
等价于:
所以,可以通过求的前r个最小特征值,和对应的特征向量,就可以得到最优的。
为了计算稳定性,协方差矩阵的最大特征值(赋值给)用于规范化,特征图拉普拉斯矩阵的最大特征值(赋值给)用于规范,数据散度矩阵的最大特征值(赋值给)用于规范化。
假设:
于是得到:
令