山书学习第五次笔记

卷积神经网络基础

如图:
山书学习第五次笔记
代码实现:
山书学习第五次笔记

X和K为输入项,X为数据,K为卷积核。
函数中间Y为结果。

意义:卷积是用于处理图像的,图像处理之后,是为了特征显化

多通道输入

山书学习第五次笔记
因为是处理图像,图像每个像素都有RGB三个值,所以就需要多通道输入,对应的核可以相同,也可以不同,结果可以是一个,也可以是多个。
其目的在于:提取不同的特征

1x1卷积层

山书学习第五次笔记
这个是用来减少通道的。让特征显化。

LeNet

说白了,就是卷积层(其中包含池化)和全连接层叠在一起。
山书学习第五次笔记
其中,linear就是全连接,conv2d,pool就是池化。其他的就是**函数。

卷积神经网络进阶

之前讲到LeNet结构并不是特别好,这里有几个已有的较好的结构。

AlexNet

山书学习第五次笔记

代码:
山书学习第五次笔记

VGG

VGG是一个重复的模块。
山书学习第五次笔记
相当于是你定义好一个模块之后,这里是n个3x3卷积,加上一个3x3最大池化。
当然我们也可以定义为其他的,比如4x4卷积。。。。。
然后再进行使用。
代码:
山书学习第五次笔记

GoogleNet

山书学习第五次笔记
其中一个特色是inception:
山书学习第五次笔记
代码:山书学习第五次笔记