线性模型

前言

双旦有点放飞自我,顺便回家了一趟,是该收收心继续搞了,第二章里面内容很丰富,虽然看起来只有不到二十页。

基本形式

基本形式:
f(x)=w1x1+w2x2+w3x3+...+wdxd+b,
给定由d个属性描述的示例x=(x1;x2;...;xd),其中xiii线线
向量形式:
f(x)=wTx+b,通过求得wTb确定模型。
通过w可以反映出各属性的重要性。

回归模型

1.线性回归
多元线性回归模型:对于数据集D={(x1,y1),(x2,y2),...,(xm,ym)},其中xi=(xi1;xi2;...;xid)
通过学的f(xi)=wTxi+b,使得f(xi)=yi(即预测值接近于真实值)
x^=(w;b)
输入数据集S=

x11x21xm1x12x22xm2x13x23xm3x1dx2dxmd111
=
xT1xT2xTm111
标记:y=(y1;y2;;ym)
则有:w^min=argminw^(yXw^)T(yXw^)
对w求极值,得到如下解:w^min=XTX1XTy
x^i=(xi;1)得到最线性回归模型:f(x^i)=x^Ti(XTX)1XTy
对数线性回归:lny=wT+b
广义线性模型:对于单调可微函数g()(联系函数),令y=g1(wTx+b)

2.对数几率回归(logistic regression)
对于二分类情况:在广义线性模型中,找到一个单调可微的函数将任务的真实标记y与线性回归模型的预测值联系起来。输出标记y{0,1},我们将线性回归的预测值转换为0/1值。
理想的“单位阶跃函数”:

f(n)=0,0.5,1,z<0z=0z>0

线性模型
sigmoid函数:将线性回归模型的输出结果转化为接近0或1的值,y=11+ez,即y=11+ewTx+b,该式可变化为:
lny1y=wTx+b

yx1yy1yxlny1y.
极大似然法估计w和b
lnp(y=1|x)p(y=0|x)=wTx+b

则:p(y=1|x)=ewTx+b1+ewTx+b,p(y=0|x)=11+ewTx+b
每个样本属于其真实标记的概率越大越好,为了求解方便,取对数似然:l(w,b)=mi=1lnp(yi|xi,w,b)β=(w,b),x^=(x;1)wTx+b=βTx^

p1(x^;β)=p(y=1|x^;β),p0(x^;β)=1p(y=1|x^;β),
则l(w,b)可以重写为:p(yi|xi;w,b)=yip1(x^i;β)+(1yi)p0(x^i;β).

则最小化l(w,b)=l(β)=mi=1(yiβTx^i+ln(1+eβTx^i),通过梯度下降法或牛顿法可以求得最优解(梯度下降法和牛顿法下一次分享),于是我们得到:β=argβminl(β)
梯度下降法迭代公式:βt+1=βtλl(β)β(λ)
牛顿法迭代公式:βt+1=βt2l(β)ββT)1l(β)β