关于kaggle中的mnist数据集(一)

前言

本人从今年开始自学机器学习(ml),路途坎坷,任重道远。。不多说了,下面是我学习路程,,,

学习

从某视频网站学习平台上面下载了一套人工智能教学视频,开始看python,应为之前有java基础,所以python上手还是很快的(这里我知识看懂python而已,并不能够深入的理解),学了大概一两周吧,然后就开始入手机器学习。
关于kaggle中的mnist数据集(一)
大概花了一个多月的时间吧,看视频撸代码,对于我这个本科生来说,刚开始遇到一些数学知识还是有点云里雾里的(少壮不努力),但还好的是,我并没有被这些繁琐的数学磨灭了积极性,还是看到了最后,这里需要强调(看视频一定要敲代码看视频一点要敲代码看视频一定要敲代码)当然这些还不能够囊括机器学习的所有,这些只是一部分基本知识,学习还是需要自己再网上找数据进行自己的训练。

实践

使用DNN

首先kaggle平台是个很好的获取数据的一个地方,这里高手云集,我首先是把最简单的最经典的mnist数据集进行自己的训练。因为是自学python,并且我自己看视频的时候没有边敲代码,所以自己对也是自能仿照别人的训练方式去进行自己的改造(python用的不熟,机器学习的代码不熟)。
首先是使用了DNN进行训练,用了两层影藏层,第一层784个节点,第二层100个节点,piapiapia,跑了200轮数据,然后自己的test集是0.98左右,但是看到kaggle上面前面几十个score是1的,,,,,o my god,他们是把28000张图片一张一张看着写结果的吧,自愧不如啊。
关于kaggle中的mnist数据集(一)

使用CNN

其实对于图片的识别最好的是使用CNN,应为每个像素点之间是有联系的,而CNN就是对图片进行特征化,之后我去网上找了一下使用CNN训练数据集的几篇博客,然后这里附上我刚刚训练的一个结果。
关于kaggle中的mnist数据集(一)这变参考的是https://www.kaggle.com/yutaoc/cnn-on-mnist/log,kaggle上面的一个人发的文,然后进行训练,我这里训练了200次,最后效果是0.989,有点过拟合了,只要训练35次左右,就可以达到。0.99的score了,接下来我要做的工作是,理解各个卷基层,以及池化层都各自做了什么,然后进行参数的微调。

然后一直想写个博客,记录一下自己走过的路,就从今天开始吧,行动起来才是最重要的

现在还没有使用github,所以,就这样咯。