机器学习第二讲-有监督学习

这一章讲三种方法:线性回归方法,判别式的分类方法,产生式的分类方法

线性回归

给出房子的面积,房子的位置,计算出房子的价钱。
input是二维,面积跟位置
机器学习第二讲-有监督学习
输出目标是价格,我们可以用线性表达式做一个加权
机器学习第二讲-有监督学习
因此我们可以写成最简单的回归模型形式:
机器学习第二讲-有监督学习
解这个方程我们可以用梯度下降的方式求
机器学习第二讲-有监督学习
这是一个最简单的回归,我们可以从概率的角度对他进行解释:
机器学习第二讲-有监督学习
我们认为所有的结果都是我们的模型加上一个噪声造成的,这个噪声是高斯噪声,均值为0,方差为 (键盘打不出来,你们都懂)
机器学习第二讲-有监督学习
这样我们可以吧样本中的条件概率写成这种形式:
机器学习第二讲-有监督学习
就是given x,和参数w,可以求出y的概率。
这样我们就可以定义参数w的似然函数:
机器学习第二讲-有监督学习
似然函数其实是反应模型中参数的概率的函数,我们取对数就可以把高斯中的指数消掉
机器学习第二讲-有监督学习
我们最大化这个似然函数就可以得到w,变成了最小二乘问题:
机器学习第二讲-有监督学习
其实最大化似然函数跟最小化二乘是一样的。
如果是局部加权的线性回归又是什么样的呢?
机器学习第二讲-有监督学习
在这里我们多了一个参数,这个参数我们也是要求出来的:
机器学习第二讲-有监督学习
这个参数跟每一个样本都有关系,从物理的角度分析这个问题,就是我们每一次加权时,离它近的点的权重会比较大,影响会大,离它远的点的作用就会小
非线性奇函数的线性回归模型
我们从几何的层面上看,假设y是一个n维的向量,输入样本有N 个,一个样本有一个输出 ,y是一个n 维的向量,把每一个x样本 通过m个奇函数映射到m 维空间,在图中画了两个红色的向量1和2
机器学习第二讲-有监督学习

分类

我们先对两类问题的分类做一个预备知识:
我们given x ,y=1的概率维t,y=0 的概率维1-t
机器学习第二讲-有监督学习
分类规则为:
机器学习第二讲-有监督学习
我们也可以写成:
机器学习第二讲-有监督学习
log这种式子叫做logit function,logistic function其实是它的反函数。
logistic function
机器学习第二讲-有监督学习
这个g(.)称作logistic 或者sigmoid function
机器学习第二讲-有监督学习
logistic 回归是一个分类模型,建立这样一个模型之后就要进行参数的估计
机器学习第二讲-有监督学习
参数的似然就可以写生下面的形式:
机器学习第二讲-有监督学习
求所有N个样本的后验概率的乘积,然后再取log,取最小化
机器学习第二讲-有监督学习
机器学习第二讲-有监督学习
机器学习第二讲-有监督学习

判别式方法和产生式方法的异同

判别式的分类是直接去model它的后验概率或者是去学它的判别函数,比如逻辑回归,SVM,在这里可能对他判别的形式做假设
产生式的是关心数据的生成过程和先验概率,根基先验和似然,求出后验