【TensorFlow】——实现minist数据集分类的前向传播(常规神经网络非卷积神经网络)
目录
1、tf.Variable()忘记使用——将需要求导的参数进行该操作,系统会自动记录导数的变化
2、迭代后的参数会自动变成tensor,而不是variable进而报错
一、常规神经网络模型
二、TensorFlow实现前向传播步骤
这里以UCI中的手写数字集作为数据训练集,假设神经网络层数有4层
输入层:1
隐层:2
输出层:1
按照batch的方式进行训练,一个batch含有128组数据
一个batch在神经网络中训练的shape变换如下:
x【128,28,28】>>>reshape>>>输入:【128,784】>>>隐层1:【128,256】>>>隐层2:【128,128】>>>输出:out【128,10】
y【128,】>>>one_hot>>>【128,10】
一个batch的loss:【128,10】
loss = (y-out)^2
1、读取数据集
2、batch划分
因为minis数据集数据量庞大,如果一个一个样本进行训练会非常耗时,因此将一定数量的样本组合成一个batch,每次对一个batch进行训练,这样会提高训练效率,又不会影响训练出来神经网络的准确性
3、根据神经网络每一层的神经元个数来初始化参数w,b
每一层的w的个数为:上一层神经元数*下一层神经元数
每一层的b的个数为:当前层的神经元个数
4、进行每一层输入输出的计算
5、对每一层的输出进行非线性relu函数变换
6、计算一个batch训练后的误差loss
7、计算每一次loss对参数的梯度
利用TensorFlow求解loss对各个参数进行求导时,必须将输入输出的求解以及loss的求解放在上图红色框的内部
8、根据梯度进行参数的迭代
三、常见错误纠错
1、tf.Variable()忘记使用——将需要求导的参数进行该操作,系统会自动记录导数的变化
2、迭代后的参数会自动变成tensor,而不是variable进而报错
这样的话我们就需要利用一个函数,使得迭代变量参数的值发生改变但是对象不会发生改变
3、梯度爆炸的解决——将初始化参数时的方差改小
梯度爆炸就是指梯度突然非常大,导致后面进行后向传播时,loss不断地增大,得不到最优参数解