支持向量机和核函数

1. 支持向量机

1.1. 从logistic回归到支持向量机

logistic回归模型:
minθ1m[i=1my(i)(loghθ(x(i)))+(1y(i))(log(1hθ(x(i))))]+λ2mj=1nθj2 \min_{\theta} \frac{1}{m}\left [ \sum_{i=1}^{m}y^{(i)}(-logh_{\theta}(x^{(i)}))+(1-y^{(i)})(-log(1-h_{\theta}(x^{(i)})))\right ]+\frac{\lambda}{2m}\sum_{j=1}^{n}\theta_j^2
其中logh(x)=log11+ex-logh(x)=-log\frac{1}{1+e^{-x}}的图形如下:
支持向量机和核函数
log(1h(x))=log(111+ex)-log(1-h(x))=-log(1-\frac{1}{1+e^{-x}})的图形如下:
支持向量机和核函数
要使logistic回归误差最小,则:
y=1y=1时,θTx(i)0\theta^Tx^{(i)} \ge 0
y=0y=0时,θTx(i)0\theta^Tx^{(i)} \le 0
这里支持向量机要求更加严格,要使支持向量机误差最小,则:
y=1y=1时,θTx(i)1\theta^Tx^{(i)} \ge 1
y=0y=0时,θTx(i)1\theta^Tx^{(i)}\le -1
此时支持向量机的误差函数为:
minθC[i=1my(i)cost1(θTx(i))+(1y(i))cost0(θTx(i))]+12j=1nθj2 \min_{\theta} C\left [ \sum_{i=1}^{m}y^{(i)}cost_1(\theta^Tx^{(i)})+(1-y^{(i)})cost_0(\theta^Tx^{(i)})\right ]+\frac{1}{2}\sum_{j=1}^{n}\theta_j^2
其中:
C=1λcost1(θTx(i))={0,if θTx(i)1a1θTx(i)+b1,otherwisecost0(θTx(i))={0,if θTx(i)1a0θTx(i)+b0,otherwise(a1>0,b1>0,a0>0,b0>0) C=\frac{1}{\lambda} \\ cost_1(\theta^Tx^{(i)})= \begin{cases} 0, &if\ \theta^Tx^{(i)} \ge 1\\ -a_1\theta^Tx^{(i)}+b_1, &otherwise \end{cases} \\ cost_0(\theta^Tx^{(i)})= \begin{cases} 0, &if\ \theta^Tx^{(i)} \le -1\\ a_0\theta^Tx^{(i)}+b_0, &otherwise \end{cases} \\ (a_1>0, b_1>0, a_0>0, b_0>0)
支持向量机和核函数
如若能找到一系列θ\theta,使得:
y=1y=1时,θTx(i)1\theta^Tx^{(i)} \ge 1
y=0y=0时,θTx(i)1\theta^Tx^{(i)} \le -1
则代价函数简化为:
J(θ)=12j=1nθj2s.t.{θTx(i)1,if y(i)=1θTx(i)1,if y(i)=0 J(\theta)=\frac{1}{2}\sum_{j=1}^{n}\theta_j^2 \\ s.t. \begin{cases} \theta^Tx^{(i)} \ge 1, &if\ y^{(i)} = 1\\ \theta^Tx^{(i)} \le -1, &if\ y^{(i)} = 0 \end{cases} \\
令负样本的取值为-1,正样本的取值为+1,则支持向量机的参数表达式为:
minθ    12θ2s.t.   y(i)θTx(i)1,i=1,2,...,n \begin{aligned} \min_{\theta}\ \ \ \ &\frac{1}{2}||\theta||^2 \\ s.t. \ \ \ &y^{(i)}\theta^Tx^{(i)} \ge 1, i=1,2,...,n \end{aligned}

1.2. 线性可分支持向量

假设能找到一个超平面,把样本中的所有正样本和负样本区分开来,这样的样本就是线性可分的。
支持向量机和核函数
存在一条唯一的超平面,使得各点到该超平面的最小距离最大。
假设该超平面为:
θTx+b=0 \theta^Tx+b=0
则各点到该超平面的距离为:
γi=y(i)θTx(i)+bθ \gamma_i = y^{(i)}\frac{\theta^Tx^{(i)}+b}{||\theta||}
乘上y(i)y^{(i)}保证γi\gamma_i为正值。
令最小距离为γ\gamma,则:
γ=min(γi)=y(k)θTx(k)+bθ \gamma = min(\gamma_i)=y^{(k)}\frac{\theta^Tx^{(k)}+b}{||\theta||}
所以该线性可分向量机参数方程为:
maxθ,b    γs.t.    y(i)θTx(i)+bθγ,i=1,2,...,n \begin{aligned} \max_{\theta,b}\ \ \ \ &\gamma \\ s.t. \ \ \ \ &y^{(i)}\frac{\theta^Tx^{(i)}+b}{||\theta||} \ge \gamma, i=1,2,...,n \end{aligned}
等价于:
maxθ,b    K1θs.t.    1θγy(i)(θTx(i)+b)1,i=1,2,...,n \begin{aligned} \max_{\theta,b}\ \ \ \ &K\frac{1}{||\theta||} \\ s.t. \ \ \ \ &\frac{1}{||\theta||\gamma}y^{(i)}(\theta^Tx^{(i)}+b) \ge 1, i=1,2,...,n \end{aligned}
其中K=y(k)(θTx(k)+b)K=y^{(k)}(\theta^Tx^{(k)}+b)为常数,将θT\theta^Tbb同时缩小θγ||\theta||\gamma倍,作为新的θT\theta^Tbb。则原式等价于:
minθ    12θ2s.t.    y(i)(θTx(i)+b)1,i=1,2,...,n \begin{aligned} \min_{\theta}\ \ \ \ &\frac{1}{2}||\theta||^2 \\ s.t. \ \ \ \ &y^{(i)}(\theta^Tx^{(i)}+b) \ge 1, i=1,2,...,n \end{aligned}
得到和1.1相同的表达式,这就是线性可分支持向量的满足的约束表达式。

2. 核函数

上述表达式只适用于样本为线性可分的场景,但对于线性不可分的场景就不能适用,这里提出核函数的概念,把线性不可分的样本转变成线性可分的样本。
高斯核函数(Gaussian kernel)
f(x)=e(xl)22δ2 f(x)=e^{-\frac{(x-l)^2}{2\delta^2}}
ll为标记点,当xxll相距很近时,f(x)1f(x) \to 1;当xxll相距很远时,f(x)0f(x) \to 0δ\delta越大,曲线下降越慢。
我们将样本输入的每一个点作为一个标记,则有f1,f2,...fmf_1, f_2,...f_m个核函数。则:
minθ    12θ2s.t.    y(i)(θTf(x(i))+b)1,i=1,2,...,n \begin{aligned} \min_{\theta}\ \ \ \ &\frac{1}{2}||\theta||^2 \\ s.t. \ \ \ \ &y^{(i)}(\theta^Tf(x^{(i)})+b) \ge 1, i=1,2,...,n \end{aligned}
其中:
θ=[θ1 θ2 ... θm]Tf(x(i))=[e(x(i)x(1))22δ2 e(x(i)x(2))22δ2 ... e(x(i)x(m))22δ2]T \theta = [\theta_1\ \theta_2\ ...\ \theta_m]^T\\ f(x^{(i)})=[e^{-\frac{(x^{(i)}-x^{(1)})^2}{2\delta^2}}\ e^{-\frac{(x^{(i)}-x^{(2)})^2}{2\delta^2}}\ ...\ e^{-\frac{(x^{(i)}-x^{(m)})^2}{2\delta^2}}]^T

3. 支持向量机选择时机

logistic回归和不带核函数的支持向量机本质上基本一样,何时使用logistic回归和支持向量机,可通过特征量nn和样本量mm来决定。

  1. n>>mn>>m,即训练集数据量不够支持我们训练一个复杂的非线性模型,选用logistic回归模型或者不带核函数的支持向量机。
  2. 如果????较小,而且????大小中等,n(1,1000),m(10,10000)n\in(1, 1000), m\in(10, 10000),使用高斯核函数的支持向量机。
  3. 如果????较小,而????较大,n(1,1000),m>50000n\in(1, 1000), m > 50000,则使用支持向量机会非常慢。可以增加更多的特征,然后使用logistic回归或不带核函数的支持向量机。