PCA人脸识别-通俗易懂的理解
2017年12月19日 星期二 | Deran Pan | [email protected]
1. 简介
PCA,即主成分分析。简单来说就是通过坐标系变换将位于原坐标系中的原数据变为在新坐标系下对应的新数据。通常这种变化伴随着数据维度的大幅降低,但是数据信息的损失较小。即减少不同维度之间的相关系,去除信息冗余,提取主成分的意思。
对于人脸图片识别来说,图片包含的信息量是十分巨大的。一张256*256分辨率的图像将每行像素收尾相接就会形成一个长度为65536大小的一维数组。换句话说一张256*256分辨率的图像拥有65536个维度。因此对于更高分辨率的图片更大的样本数量,如果不对数据降维则对如此巨大的数据进行处理在时间上就已经是不可取的。
2. 矩阵乘法的几何含义
先看下列式子:
Y⎡⎣⎢⎢⎢⎢c1c2⋮cn⎤⎦⎥⎥⎥⎥[20]=PX=⎡⎣⎢⎢⎢⎢⎢a11a21⋮am1a12a22⋮am2……⋱…a1na2n⋮amn⎤⎦⎥⎥⎥⎥⎥×⎡⎣⎢⎢⎢⎢b1b2⋮bn⎤⎦⎥⎥⎥⎥=[1−111]×[11](1)
通常来讲一个矩阵乘以一个向量表示表示对这个向量伸缩旋转变换。例如上式所示向量
X=[1,1]T 经过矩阵相乘后就转变成向量
Y=[2,0]T 了。但是当矩阵
P 的每一行都是线性无关的向量时,那么矩阵
P 的所有横向量就可以作为一个新的坐标系的基向量。用它乘以一个其他向量就相当于将该向量的坐标转换为新坐标系下的新坐标,如图所示:
由于新基矩阵(黄色)维向量(横向量)的模长为2–√ ,所以新坐标系中的向量的模长也要比原向量长2–√ 倍。
3. PCA降维的数学运算过程
通常样本表示的列向量,如下所示表示一个含有m维数据的样本:
x=[x1,x2,…,xm]T(2)
则原数据
X可以表示为如下:(
m×n 矩阵,
n 个样本,每个样本有
m 维数据)
X=⎡⎣⎢⎢⎢⎢⎢a11a21⋮am1a12a22⋮am2……⋱…a1na2n⋮amn⎤⎦⎥⎥⎥⎥⎥(3)
原数据的协方差
C 可以表示为如下:
C=1mXXT(4)
式
(2)、(3)、(4) 为已知初始数据,下面将给出我们的目的数据,设
Y 来表示降维后的数据,如下所示:
Y=⎡⎣⎢⎢⎢⎢⎢b11b21⋮bk1b12b22⋮bk2……⋱…b1nb2n⋮bkn⎤⎦⎥⎥⎥⎥⎥(k<m)(5)
降维数据
Y 的协方差可以表示为如下:
D=1mYYT(6)
到此,我们希望降维数据
Y 的协方差矩阵
D 上主对角线上的元素尽可能大,而其他元素都为零。因为协防差矩阵表示的是不同维度的相关性,所以这样希望的话就意味着数据在同一维度上尽可能的分散并且维度与维度之间没有相关性。因此想要将原数据
X 变为新数据
Y 则需要一个新的基矩阵
P ,使得:
Y=PX(7)
式
(7) 即为原数据与降维数据的联系,我们最终的目的就是找到满足
D 的基矩阵
P 。观察下述等式:
D=1mYYT=1m(PX)(PX)T=1mPXXTPT=P(1mXXT)PT=PCPT(8)
由于原数据
X 的协方差矩阵
C 为实对称矩阵,因此实对称矩阵
C 通过特征分解后如下所示:
C=EΛET=[e1,e2,…,em]⎡⎣⎢⎢⎢⎢⎢λ10⋮00λ2⋮0⋯⋯⋱⋯00⋮λm⎤⎦⎥⎥⎥⎥⎥[e1,e2,…,em]T(其中Cei=λiei,ei是特征值λi所对应的特征向量,列向量)(9)
在式(9) 中我们可以看到矩阵Λ 是非常符合降维数据Y 的协方差矩阵D 的要求,主对角线上的元素尽可能大,而其他元素都为零。因此我们联立式(8)、(9) 得:
{D=PCPTΛ=ETCE(10)
由式
10 可得:
P=ET(11)
由式
(11) 可知,我们所求的基矩阵即为原数据
X 的协方差矩阵
C 经过特征值分解后的由特征向量组成的矩阵
ET 。在矩阵
ET 中,每一行均是一个特征向量,也是新坐标系中的基向量。在
ET 中有
m 行(原数据有
m 维)。根据
Λ 中特征值得大小从
ET 中删去特征值较小的维度保留特征值较大的维度从而构成新的基矩阵
P ,因此在
P 应当少于
m 行,减少维度从而达到降维的效果。
Y=PX=⎡⎣⎢⎢⎢⎢⎢c11c21⋮ck1c12c22⋮ck2……⋱…c1mc2m⋮ckm⎤⎦⎥⎥⎥⎥⎥k×m×⎡⎣⎢⎢⎢⎢⎢a11a21⋮am1a12a22⋮am2……⋱…a1na2n⋮amn⎤⎦⎥⎥⎥⎥⎥m×k=⎡⎣⎢⎢⎢⎢⎢d11d21⋮dk1d12d22⋮dk2……⋱…d1nd2n⋮dkn⎤⎦⎥⎥⎥⎥⎥k×n(12)
由式
(12) 可以看到,降维数据
Y 由原数据
X 的
m 维降低至
k 维
(k<m) 。
4. 计算特征值与特征向量
通常来讲图像的维数是非常高的,比如一张 256×256 分辨率的图像拥有 65536 个维度。而图像样本的数量通常则远远维度数。所以对于原数据X 的协方差矩阵C 是非常大的。例如 20 张 256×256 的样本,那么X 的大小为 65536×20,其协方差矩阵的大小为 65536×65536。
对于矩阵相乘我们已知:
r(AB)⩽min{r(A),r(B)}
因此协方差矩阵
C 的秩
r(C)⩽n(n为样本数) 一遍来讲
r(C)=n 。由于
C 是实对称矩阵且相似于对角矩阵,故
C 的秩就等于其非零特征值的个数,也就意味值当样本数量远远小于维数时,其协方差矩阵的特征值大多数是为 0 的。
因此考虑矩阵H :
H=1mXTX(13)
H 的大小为
n×n(n为样本数) ,其大小远远小于
m×m(m为维数) 。现在对
H 进行特征分解,其特征值和特征向量可以表示为:
Hαi=λiαi 。考虑下列等式:
HαiXTXαiXXT(Xαi)C(Xαi)=λiαi=λiαi=λi(Xαi)=λi(Xαi)(14)
由式
(14) 可知,若
λi 和
αi 是矩阵
H 的特征值和特征向量,那么若
λi 和
Xαi 也是协方差矩阵
C 的非零特征值和其对应的特征向量。这样就可以求出
C 所有的非零特征值和其对应的向量。在 PCA 中就可以根据这些非零特征值进行筛选主成分了。通过矩阵
H 可以极大的减少所需的计算量。
5. 人脸识别过程
到目前为止,我们就可以将人脸图像的样本数据进行降维处理得到由特征脸bi 组成的特征集Y 。
Y=[b1,b2,…,bn]=⎡⎣⎢⎢⎢⎢⎢b11b21⋮bk1b12b22⋮bk2……⋱…b1nb2n⋮bkn⎤⎦⎥⎥⎥⎥⎥(15)
对与一张新的图像,可以表示成一个
1×n 大小的向量
v 。首先将其投影到降维空间也就是用矩阵
P 去乘以向量
v ,从而得到向量
u 。
u=P×v(16)
再通过分别计算向量
u 当每一个特征脸
bi 的欧氏距离,取欧氏距离最短的特征脸
bmin 所对应的样本即为本次所识别的结果。
6. 代码
源代码参考自互联网[1],增加了些许调整和注释并使用automake进行构建。当前程序识别精确度有限,若使用分类器代替简单的欧氏距离判断则可提高识别精确度。
face recognition https://gitee.com/panderan/face_recognition
7. 参考资料
- PCA人脸识别学习及C语言实现,http://blog.****.net/jinshengtao/article/details/18599165
- 基于PCA的人脸识别步骤,http://blog.****.net/yutianzuijin/article/details/10823985
- PCA的数学原理,http://blog.codinglabs.org/articles/pca-tutorial.html
- 浅谈协方差矩阵,https://www.cnblogs.com/chaosimple/p/3182157.html