LASSO代价函数
在常规的代价函数中,参数一般只会趋于0而不会直接取0,因此将代价函数进行修改,即L1正则化。
J(θ)=2m1[∑i=1m(hθ(xi)−yi)2+λ∑j=1n∣θj∣]
该方法用于含多重线性相关的数据,即参数最终有直接为0的情况。
弹性网代价函数
J(θ)=2m1[∑i=1m(hθ(xi)−yi)2+λ∑j=1n∣θj∣q]
逻辑回归
逻辑回归常用于分类问题,较为适用于二分类问题。
逻辑回归函数:hθ(x)=g(θTx) (矩阵形式)
g(x)为sigmoid函数 ,函数表达式为:g(x)=1+e−x1
其函数图如下:
因此代入上式可知hθ(x)=1+e−θTX1
由sigmoid函数可知分界线为0.5,对于θTX的界限为0
逻辑回归代价函数
cost(hθ(x),y)={−log(hθ(x))−log(1−hθ(x))ify=1ify=0
其中hθ(x)为预测值,y为真实值。以二分类而言,标签一般分为‘0’和‘1’。
因此当标签为‘1’,预测值为‘0’时,代价函数值为∞,也就意味着偏差无穷大,反之相同。
将二者合成一般情况:cost(hθ(x),y)=−ylog(hθ(x))−(1−y)log(1−hθ(x))
经过求导可知,代价函数的梯度为:
grad=m1∑i=1mx(hθ(x)−y) (写成矩阵形式时X等部分矩阵可能要转置)