Paper第一期CV——BaseLine1打卡

AlexNet作业

1、 文字回答:ImageNet数据集与ILSVRC之间的关系是什么?

ImageNet数据集是一个非常大的数据集,包含了超过1400万张全尺寸的有标记图片,而ILSVRC数据集是ImageNet数据集的子集,只包含了ImageNet的部分数据

2、 文字回答:AlexNet训练过程的数据增强中,针对位置,采用什么方法将一张图片有可能变为2048张不一样的图片(1个像素值不一样,也叫不一样)?

由于输出的图片尺寸为256×256256\times256,而最终需要裁剪为224×224224\times224,因此可能的情况为(256224)2=1024(256-224)^2=1024,同时还需要进行水平翻转,因此1024×2=20481024\times2=2048,最终一张图片就有可能变为2048张不一样的图片

3、文字回答:AlexNet使用的Dropout,在使用过程中需要注意什么?

需要主要的是当模型运用在测试集时,得到的模型参数需要乘上失活概率pp以保证数据尺度的一致性

4、文字回答:读完该论文,对你的启发点有哪些?

  • ReLU**函数是一种不饱和**函数,不需要对数据进行归一化,而Sigmoid,tanh这一类饱和**函数需要对数据进行归一化
  • 多GPU的训练能够加快训练速度,但是涉及到GPU之间的信息交流
  • 数据增强能够提高模型的泛化能力

5、代码实践:在猫狗数据集上,对比采用预训练模型和不采用预训练模型这两种情况,训练曲线有何差异,截图打卡。

Paper第一期CV——BaseLine1打卡
上图中,左边为采用预训练模型的损失函数曲线,而右边为没有采用预训练模型的损失函数曲线,可以看出采用预训练模型能够非常有效的加速模型的训练,使模型快速收敛

6、文字:本篇论文的学习笔记及总结

论文的学习笔记及总结见我的****我的个人网站