机器学习【四】支持向量机

要解决的问题:找一个决策边界,决策边界就是离边界上的点最远的平面。

一. 点到直线的距离:

机器学习【四】支持向量机 

假设平面为机器学习【四】支持向量机  ,x'为平面的点,则Wt*x'=-b

W为法向量,x到平面的距离:机器学习【四】支持向量机  

不理解可以看下这个博客:http://www.cnblogs.com/graphics/archive/2010/07/10/1774809.html

二. 数据标签定义

数据集为(x1,y1)(x2,y2)...(xn,yn)

y为样本类别:当X为正例,Y=+1,当X为负例,Y=-1。X为这个数据(x1,y1)

决策方程:y(x)=机器学习【四】支持向量机

=》y(xi)>0  《=》yi=+1    =》 yi*y(xi)>0

      y(xi)<0  《=》yi=-1


三. 开始正式SVM:

优化目标:找一条线(w和b),使得边界上的点(离该线最近的点)能够最远。

将点到直线的距离化简:

机器学习【四】支持向量机因为yi*y(xi)>0

则优化目标为: 机器学习【四】支持向量机


其中min部分为寻找到决策面最近的点,max部分使该点到决策面的距离最远。

我们可以采用放缩变换使得机器学习【四】支持向量机,则优化目标函数就变为机器学习【四】支持向量机


(1)SVM目标函数就为:

机器学习【四】支持向量机

一般套路:将求极大值转换为求极小值 机器学习【四】支持向量机,用拉格朗日乘子法求解,

机器学习【四】支持向量机


假设

机器学习【四】支持向量机  如果fi(x) > 0,则thetap(x)->正无穷,如果hi(x)不等于0,则可有baita使得thetap(x)->正无穷,

如果满足约束条件,则thetap(x)=f(x),所以转换为求极小化问题机器学习【四】支持向量机与原来约束式子等价。

根据对偶性:

机器学习【四】支持向量机

(2)SVM求解:

机器学习【四】支持向量机

机器学习【四】支持向量机


机器学习【四】支持向量机


机器学习【四】支持向量机


机器学习【四】支持向量机

机器学习【四】支持向量机


这里将a1等于0带入目标函数

机器学习【四】支持向量机

b的求法是对偶性原理的问题 可参考李航统计学习P109

支持向量:发挥作用的数据点,机器学习【四】支持向量机


四.  soft-margin

软间隔:有了噪音点 放松一下条件

机器学习【四】支持向量机

机器学习【四】支持向量机

机器学习【四】支持向量机

五. 核函数

低纬不可分映射到高维去划分。

机器学习【四】支持向量机

还是在低纬计算,名义上映射到高维去

机器学习【四】支持向量机