最小二乘支持向量机(LSSVM)推导

LSSVM和SVM的区别就在于,LSSVM把原方法的不等式约束变为等式约束,从而大大方便了Lagrange乘子alpha的求解,原问题是QP问题,而在LSSVM中则是一个解线性方程组的问题。

minw,b,eJ(w,e)=12wTw+12γi=1Nek2\min_{w,b,e}J(w,e)=\frac 12 w^Tw+\frac 12\gamma\sum_{i=1}^{N}e_k^2
s.t.    yi(wTxi+b)=1ei,   i=1,...,Ns.t.\ \ \ \ y_i(w^Tx_i+b)=1-e_i,\ \ \ i=1,...,N

拉格朗日

L(w,b,e;α)=J(w,e)i=1Nαi[yi(wTxi+b)1+ei]L(w,b,e;\alpha)=J(w,e)-\sum_{i=1}^{N}\alpha_i[y_i(w^Tx_i+b)-1+e_i]

求导并令其为零

Lw=0w=i=1NαiyixiLb=00=i=1NαiyiLei=0αi=γek,   k=1,...,NLai=0yi(wTxi+b)1+ek=0,   k=1,...,N\begin{aligned} \frac{\partial L}{\partial w}&=0\to w=\sum_{i=1}^{N}\alpha_iy_ix_i \\ \frac{\partial L}{\partial b}&=0\to 0=\sum_{i=1}^{N}\alpha_iy_i \\ \frac{\partial L}{\partial e_i}&=0\to \alpha_i=\gamma e_k, \ \ \ k=1,...,N \\ \frac{\partial L}{\partial a_i}&=0\to y_i(w^Tx_i+b)-1+e_k=0,\ \ \ k=1,...,N \end{aligned}

转换为关于α\alphabb的线性方程组形式:

[0YTY(YYT)(XXT)+γ1I][bα]=[01] \begin{bmatrix} 0 & Y^T \\ Y & (YY^T)\bigodot (XX^T)+\gamma^{-1}I \\ \end{bmatrix} \begin{bmatrix} b \\ \alpha \\ \end{bmatrix} = \begin{bmatrix} 0 \\ \bold 1 \\ \end{bmatrix}
其中\bigodot规则为将矩阵对应位置的元素分别相乘,1\bold 1为一列1构成的向量

上面的矩阵大概长这个样子:

最小二乘支持向量机(LSSVM)推导

(YYT)(XTX)+γ1I(YY^T)\bigodot (X^TX)+\gamma^{-1}I里的第ii行第jj列元素为yiyjxiTxjy_iy_jx_i^Tx_j