CNN入门讲解:什么是**函数(Activation Function)

各位看官老爷们

( ̄▽ ̄)/

这里是波波给大家带来的CNN卷积神经网络入门讲解

不定期我将给大家带来绝对原创,脑洞大开,幽默风趣的深度学习知识点入门讲解

希望大家多多支持,多多关注

微信公众号:follow_bobo

知乎号:蒋竺波



啦啦啦(~ ̄▽ ̄)~

新年好

好久不见啊

想我吗


我们前面说了卷积层,再到下采样层

根据网络结构

我们应该又进入到卷积层



我不去

学业繁忙

告辞!




CNN入门讲解:什么是**函数(Activation Function)


最近实在很忙啊

在做一个AI 医疗项目,主要检测心脏疾病

哎,一直没啥进展

老板是个美国人,很Push, 经常询问进度

他原来已经创立了一家公司,卖了几千万美元

现在重新开始创业

说实话,人家创业的精神实在值得我们学习,身价几千万了,还和我们一起在一线奋斗。很多事都亲力亲为。每当我们有问题解决不出,他就会想办法去解决,每次给他发邮件,他都会立马回复,并且内容及其详细,好几次他的当地时间凌晨3,4点还能立马给我回复(他人在美国)。每次meeting,他都会积极调动我们思维每次说话,好几次我一点progress都没有,他都会努力找了点progress来表扬我,老感动了。


扯远了,我们来看**函数

实际上,从下采样层出来的结果,不是又到卷积层,而是进入了一个**函数(activation function)


在讨论**函数之前

我们先来看一个普通的神经网络

有多普通

CNN入门讲解:什么是**函数(Activation Function)


这应该就是一个小学的线性数学公式吧

没错,其实你小学就已经学了神经网络了


这个神经网络,可以轻松解决普通的线性二分类问题

如下

CNN入门讲解:什么是**函数(Activation Function)


So easy


可是现实生活中

更多的是这种复杂的二分类


你会发现,一个普通的线性神经网络无论怎么移动和反转

都无法将上图分类

因为给出的样本点就不是线性可分的


我记得高数曾教过我们泰勒公式

意思就是一个函数f(x) 可以由N次多项式来表达或者近似

Ok,那我们假设

通过不断叠加简单神经网络得到一个复杂神经网络

最后这个复杂的神经网络可以将上述圆圈和三角形分类


那我们画一个复杂的

CNN入门讲解:什么是**函数(Activation Function)


Output = w7(input1*w1 +input2*w2)+w8(input1*w3+input2*w4)+w9(input1*w5+input2*w6)

太复杂,看不懂没关系

我们调整一下:

Output = input1(w1*w7+w3*w8+w9*w5)+input2*(w2*w7+w4*w8+w6*w9)

我们假设Output = 0

那么input1 = input2*( w2*w7+w4*w8+w6*w9)/(-w2*w7+w4*w8+w6*w9)

最后又回到了y= X*W的线性模式

也就是说,现在的神经网络学习能力非常有限

无法去解决非线性问题

叠加简单神经网络解决不了非线性分类问题


其实大数早已经教过我们

线性函数具有可加性和齐次性

任意线性函数连接都可以等价为一个单一线性函数


好了

第一个问题(゚▽゚*)


线性神经网络没法解决非线性问题

那我们就换种思路

我们能不能把线性神经网络,转成非线性的

也就是把分隔直线转换成曲线

是不是就能解决非线性分类

怎么转


我们从最简单的神经网络 Y = W * X +B入手

然后变成最简单的非线性神经网络Y = W*X*X+B

这是一个普通Y = X*X 的表达式

CNN入门讲解:什么是**函数(Activation Function)

Y = W*X*X+B 经过一系列运算(理想的)

我们得到了如下:


CNN入门讲解:什么是**函数(Activation Function)

变成曲线后,好像可以把这两类区分开诶

是不是有点理解了

哦哦

原来如此



第二个问题(゚▽゚*)


我们的神经网络(还是最简单的)

Y =W*X +B

根据input X的值,我们会得到Y值

所以我们需要一个函数可以对得到的Y值进行分类的

比如Y大于0 ,分类为1

小于0 ,分类为0


第三个问题(゚▽゚*)


对于神经网络

Y = W*X +B

我们知道,我们需要算出输出误差error (output Y - target Y) 来更新权值

CNN入门讲解:什么是**函数(Activation Function)

假设我们的输入X的绝对值特别大,或者无限大,那么Y值就会特别大

直接导致error太大

更新出来的权值没有意义,或者无法更新权值


第四个问题(゚▽゚*)


这个问题涉及到反向传播(back propagation),可能很多小伙伴会看不懂


你以为我会仔细讲吗?

我不会

初学者建议你跳过下面一段

哈哈哈哈哈︿( ̄︶ ̄)︿

如果我们的神经网络函数是线性的

那么它的导数就是个常数

意味着什么

意味着gradient和X 无关了,也就是很输入无关了

我们在做反向传播的时候

Gradient 的改变也变成常数

和输入的改变X(delta(x)) 无关了


综合以上四个问题ヽ( ̄▽ ̄)ノ

这个时候,就是我们**函数(Activation Function)上场了


因为我们最终要解决一个分类问题(classification)

那我们还是从最简单的二分类非线性**函数开始---阶跃函数(Step Function)

CNN入门讲解:什么是**函数(Activation Function)

当输入(也就是神经网络Y的输出)大于0就被分类到1(100% 被** ),小于0就分到0,(没有被**)

可是**值只有100%或者0%未免太不负责了

我们希望它可以是0%---100%任意值

值越大,**程度越高 对于分类,也就意味着它属于这一类的概率越大


综上所述

各种**函数层数不穷,各有优缺点

比如大家都经常听到或者用到的

Relu, sigmoid,tanh等等

CNN入门讲解:什么是**函数(Activation Function)


你看sigmoid 只会输出正数,以及靠近0的输出变化率最大,tanh和sigmoid不同的是,tanh输出可以是负数,ReLu是输入只能大于0,如果你输入含有负数,ReLu就不适合,如果你的输入是图片格式,ReLu就挺常用的。

因为每个**函数都要考虑输入输出以及数据变化

所以要谨慎选择


太细的这里就不讲了ヽ( ̄▽ ̄)ノ

因为它们涉及到比较深的一些理论,不符合我们入门的这个主题

下次我再单独讨论讨论他们


好吧,其实是太忙,没时间写了(~ ̄▽ ̄)~

后面的话,等我把基础讲完了

我再把这些比较深的东西串一串

结合结合代码什么

毕竟你懂的再多

不会写代码,有何用︿( ̄︶ ̄)︿


CNN入门讲解:什么是**函数(Activation Function)