(转)低秩表示的学习--Latent Low-Rank Representation(LatLLR)

低秩表示的学习--Latent Low-Rank Representation(LatLLR)

最近读了LLR(Low Rank Representation)的文章,所以整理一下。本文的主线是LLR-->LantLLR-->RobustLLR

代码地址https://download.****.net/download/smilebluesky/10555664

一、低秩表示

刚开始接触低秩表示是看到一篇论文里面对公式进行了低秩约束,感觉很好奇,查了一下后,发现低秩很神奇,可以将噪声和干净数据自动分割出来。因为这一部分比较基础所以参考一篇中文论文[1]

 

(转)低秩表示的学习--Latent Low-Rank Representation(LatLLR)

稀疏表示也是将数据集矩阵表示成字典的线性组合,但是不同的是稀疏表示希望系数是稀疏的。

举例:

(转)低秩表示的学习--Latent Low-Rank Representation(LatLLR)

 

可以把Ui理解为空间里的基,然后Q是系数,相当于坐标点,20个4维的坐标点。X是100个数据,随机选20个加噪声,最后用低秩表示,可以看到相似度矩阵的块效应非常显著,这个和定义的5个子空间是吻合,这说明,对子空间的分割具有鲁棒性,同时可以看到近乎完美的恢复了噪声,所以具有良好的去噪性。

 

二、低秩子空间恢复的联合稀疏表示

本部分参考的论文也是一篇中文论文[2]

(转)低秩表示的学习--Latent Low-Rank Representation(LatLLR)

 

最后计算测试样本对各类训练样本的残差,测试样本属于残差最小的那个类。

(转)低秩表示的学习--Latent Low-Rank Representation(LatLLR)

三、Latent Low-Rank Representation(LatLLR)[3]

(转)低秩表示的学习--Latent Low-Rank Representation(LatLLR)

(转)低秩表示的学习--Latent Low-Rank Representation(LatLLR)

下面按照这两个问题讨论

1)无噪声数据

先给出一个定理并证明

(转)低秩表示的学习--Latent Low-Rank Representation(LatLLR)

(转)低秩表示的学习--Latent Low-Rank Representation(LatLLR)

 

接下来还是用举例证明

(转)低秩表示的学习--Latent Low-Rank Representation(LatLLR)

一共是10个空间,选择了9个所以样本是不充分的,但是我们使用lantLLR,从效果可以看出能鲁棒的分割出9个子空间,其中b图因为是不充分的LLR只能是对角线为1矩阵。

(转)低秩表示的学习--Latent Low-Rank Representation(LatLLR)

本例中样本是充分的,只是在噪声不同的情况下,比较LLR和LatLLR

 

最后一部分是在真实场景中的实验应用

(转)低秩表示的学习--Latent Low-Rank Representation(LatLLR)(转)低秩表示的学习--Latent Low-Rank Representation(LatLLR)

三种不同的点代表不同的空间,红色左右转,蓝色的上下转,黄色的不动。

整个视频序列是29帧,459个点,3个motion,一个motion对应一个子空间(转)低秩表示的学习--Latent Low-Rank Representation(LatLLR)

(转)低秩表示的学习--Latent Low-Rank Representation(LatLLR)

[1]史加荣,低秩矩阵恢复算法综述,[J]计算机应用研究,2013

[2]胡正平,基于低秩子空间恢复的联合稀疏表示人脸识别算法,[J]电子学报,2013

[3]Guangcan Liu, Latent Low-Rank Representation for Subspace Segmentation and Feature Extraction,ICCV,2011

 

代码地址https://download.****.net/download/smilebluesky/10555664