CNN经典论文(一)之LeNet

Gradient-Based Learning Applied to Document Recognition(梯度学习在文档识别中的应用)

  1. 作者:Yann LeCun, Leon Bottou, Yoshua Bengio, and Patrick Haffner
  2. 发表时间:December 1998
  3. 期刊:Proceedings of the IEEE
  4. 影响:世界上第一个卷积神经网络
  5. 论文地址:Gradient-Based Learning Applied to Document Recognition

论文简介

  1. 数据集:MNIST database
  2. 应用场景:手写字体识别

论文思想

  1. 卷积神经网络:局部感受野(local receptive fields)、权值共享(shared weights
    )或权值复制(weights replication)和时间或空间子采样(sub-sampling)。

  2. Stochastic Gradient(随机梯度下降)和 Batch Gradient(批量梯度下降)的反向传播算法。

  3. LeNet-5网络结构:CNN经典论文(一)之LeNet

如上图,包括输入一共8层结构,分别是输入层-卷积层C1-下采样层S2-卷积层C3-下采样层S4-卷积层C5-全连接层F6-分类器,图中的矩阵代表经过每一层网络提取特征后的特征图大小表示,每经过一层网络,特征图变小,通道数增加。最后的全连接网络融合上一层的特征图通道,分类器输出跟预测类别数相同,在手写字体识别中[0-9]一共10类,最后输出10个类别的概率,概率最大的类别我们认为图像最可能是属于这一类别的。

特征提取过程:input_feature_map[[email protected]]----[5x5]卷积运算----C1_feature_map[[email protected]]----[2x2]下采样操作----S2_feature_map[[email protected]]----[5x5]卷积运算----C3_feature_map[[email protected]]----[2x2]下采样操作----S4_feature_map[[email protected]]—[5x5]卷积运算----C5_feature_map[[email protected]]—全连接----F6_feature_map[[email protected]]—分类----Output

其中[[email protected]]表示:6个特征图,每个特征图大小为32x32
其中卷积计算公式:(n + 2p - f)/s + 1
n:代表上一层输入特征图大小
p:代表卷积过程零填充的个数
f:代表卷积核大小
s:代表卷积步长
第一次卷积,n=32,p=0,f=5,s=1,带入得到C1的特征图大小(32+2x0-5)/1=28