TensorFlow实践-学习笔记(1)

人工智能  未来已来!

从2016年的AlphaGo的现世,以及2017年更加厉害的AlphaGo Zero的诞生,人工智能开启了新的纪元。

人工智能中包含机器学习,机器学习中包含深度学习。

机器学习可以大致分为三类,分别是有监督、无监督学习和强化学习。

而对于有监督学习,又可以分为两类,分别是分类问题和回归问题。

回归问题,针对连续数据,常见的回归算法有:线性回归、AdBoost、神经网络等;

分类问题,针对离散数据,常见的分类算法有:逻辑回归、决策树、KNN、随机森林、支持向量机、朴素贝叶斯、神经网络等;

对于深度学习,需要先了解神经网络,对于神经网络,我直接从视频中截图:

TensorFlow实践-学习笔记(1)

神经网络的经典构成:

TensorFlow实践-学习笔记(1)

在最后的输出,由于要做分类,在输出层使用了**函数对前面的计算结果部分做一个非线性化的结果处理,这样可以使得整个神经网络的表现力更好。常见的**函数有Sigmoid和ReLu,图像分别如下:

TensorFlow实践-学习笔记(1)

TensorFlow实践-学习笔记(1)

 在实际中,ReLu的效果比Sigmoid的效果更好。

上面的基础的简单神经网络介绍完了,接着来看看深度神经网络。比如,增加隐藏层数为3的简单深度神经网络图:

TensorFlow实践-学习笔记(1)

1. 卷积神经网络

TensorFlow实践-学习笔记(1)

卷积神经网络LeNet神经网络的结构如下:

TensorFlow实践-学习笔记(1)

 卷积神经网络LeNet最大的特点就是卷积和池化。

卷积,就是利用卷积核对原图像进行卷积核运算,不断提取出新的图像,这个新的图像在一定程度上就可以获取原图像的特征;

池化,一方面可以降低模型的过拟合程度,还可以强化图像中的显著特性;

2012年卷积神经网络出现了一个惊人的表现,也就是:
 

TensorFlow实践-学习笔记(1)

在图像识别中获得了冠军。

主流深度学习框架:

TensorFlow实践-学习笔记(1)

TensorFlow实践-学习笔记(1)

TensorFlow实践-学习笔记(1)

注:

截图来自慕课的公开课。