CS231n 学习笔记(八)

时间:2019/3/30
内容:卷积和池化

课时12:卷积和池化

全连接层
CS231n 学习笔记(八)
卷积层
卷积层和全连接层最大的区别是它可以保留空间结构。我们不用将图片像上述用全连接层处理那样将其展开成一个长向量,可以保持图片三维输入的结构CS231n 学习笔记(八)
每个卷积核大小是5*5,一共有3个卷积核

工作细节:
CS231n 学习笔记(八)
CS231n 学习笔记(八)CS231n 学习笔记(八)
**映射里的值就是卷积核在每个位置求得的结果。当我们处理一个卷积层时,我们希望用到多种卷积核。例如下图用到了6个卷积核
CS231n 学习笔记(八)
那么在CNN中如何使用这些卷积层呢?ConvNet是由多个卷积层组成的一个序列,它们依次堆叠,就像之前讲的神经网络中那样堆叠简单的线性层一样。
CS231n 学习笔记(八)
这些层每个会采用多个卷积核,每个卷积核会产生一个**映射
CS231n 学习笔记(八)
CS231n 学习笔记(八)
CS231n 学习笔记(八)
池化层大大降低了**映射的采样尺寸
CS231n 学习笔记(八)
CS231n 学习笔记(八)
输出深度是使用卷积核的数量。零填充的目的是为了保证输入图像的尺寸,否则会尺寸迅速减小,损失一些信息
CS231n 学习笔记(八)
每个边上增加宽度为2的填充
CS231n 学习笔记(八)
对每个卷积核,输出都是3232,这里有10个卷积核,因此output是3232*10(是个**映射);这一层中的参数是多少呢?
CS231n 学习笔记(八)
这里3是权重(即输入深度),1是偏差项的参数数目
CS231n 学习笔记(八)
F:filter size

CS231n 学习笔记(八)