tensorflow之深度学习---第二天

总之一些op操作写在会话之前,之后在会话中进行开启并运行结果。因为会话掌握了变量的开启与释放,掌握着变量资源。

可视化学习

tensorflow之深度学习---第二天
tensorflow之深度学习---第二天
tensorflow之深度学习---第二天
tensorflow之深度学习---第二天
tensorflow之深度学习---第二天
tensorflow之深度学习---第二天
tensorflow之深度学习---第二天
只有进行初始化操作之后,此时变量中var才真正有值了。
tensorflow之深度学习---第二天
tensorflow之深度学习---第二天
tensorflow之深度学习---第二天
tensorflow之深度学习---第二天
tensorflow之深度学习---第二天
tensorflow之深度学习---第二天
tensorflow之深度学习---第二天
tensorflow之深度学习---第二天
tensorflow之深度学习---第二天
tensorflow之深度学习---第二天
tensorflow之深度学习---第二天
tensorflow之深度学习---第二天tensorflow之深度学习---第二天
tensorflow之深度学习---第二天
tensorflow之深度学习---第二天
tensorflow之深度学习---第二天
默认对于张量a,b在程序中没有用时,图中不显示。若定义的是变量即使不用也显示。
tensorflow之深度学习---第二天
以下更新代码后会生成一个新的图结构。
tensorflow之深度学习---第二天
tensorflow之深度学习---第二天
tensorflow之深度学习---第二天
tensorflow之深度学习---第二天tensorflow之深度学习---第二天
tensorflow之深度学习---第二天
tensorflow之深度学习---第二天

注意:所有的op都有name名称

tensorflow之深度学习---第二天
tensorflow之深度学习---第二天
tensorflow之深度学习---第二天
tensorflow之深度学习---第二天

线性回归的原理复习以及实现

tensorflow之深度学习---第二天
tensorflow之深度学习---第二天
tensorflow之深度学习---第二天
tensorflow之深度学习---第二天
tensorflow之深度学习---第二天
tensorflow之深度学习---第二天
tensorflow之深度学习---第二天
tensorflow之深度学习---第二天
tensorflow之深度学习---第二天
tensorflow之深度学习---第二天
tensorflow之深度学习---第二天
tensorflow之深度学习---第二天
tensorflow之深度学习---第二天
tensorflow之深度学习---第二天
tensorflow之深度学习---第二天
tensorflow之深度学习---第二天
tensorflow之深度学习---第二天
tensorflow之深度学习---第二天
tensorflow之深度学习---第二天
tensorflow之深度学习---第二天
tensorflow之深度学习---第二天
tensorflow之深度学习---第二天
tensorflow之深度学习---第二天
tensorflow之深度学习---第二天
tensorflow之深度学习---第二天
tensorflow之深度学习---第二天

_trainable,学习率的调整,梯度爆炸

tensorflow之深度学习---第二天
学习率影响从山顶到山底的速度。一般都是小于1的数,0.1,0.01都可以。
tensorflow之深度学习---第二天
tensorflow之深度学习---第二天
tensorflow之深度学习---第二天
tensorflow之深度学习---第二天
tensorflow之深度学习---第二天
tensorflow之深度学习---第二天
tensorflow之深度学习---第二天
tensorflow之深度学习---第二天
作用域使得代码更清晰,使得代码看起来更清爽。
tensorflow之深度学习---第二天
tensorflow之深度学习---第二天
tensorflow之深度学习---第二天

增加损失值等变量显示

tensorflow之深度学习---第二天
tensorflow之深度学习---第二天
tensorflow之深度学习---第二天
tensorflow之深度学习---第二天
tensorflow之深度学习---第二天
tensorflow之深度学习---第二天
tensorflow之深度学习---第二天
tensorflow之深度学习---第二天
tensorflow之深度学习---第二天
tensorflow之深度学习---第二天
tensorflow之深度学习---第二天

模型的保存与加载

tensorflow之深度学习---第二天
如果在训练3万次后,服务器当机了,如果已经经过2天训练,那说明权重已经更新很多了,下次开始又从开始随机值重新开始了。所以可以让他在每100步保存一个weight值,每200步保存weight值,此时如果当机了,此时值已经在文件中了,下次再训练就可以从已经训练到30000步的这个权重和偏置开始训练了,节省时间了。
模型保存与加载实际保存的是变量,因为参数大多数是以变量去定义的。
tensorflow之深度学习---第二天
假如训练60000次,每训练100步保存一个新的权重参数文件,即有600个文件,你只想要最近的几个文件中的权重与偏置值。
tensorflow之深度学习---第二天
tensorflow之深度学习---第二天
因为会话掌握了很多资源,这些变量的资源就是它掌握的,变量的值也是他开启并回收的。所以保存中是sess;
tensorflow之深度学习---第二天
tensorflow之深度学习---第二天
tensorflow之深度学习---第二天
tensorflow之深度学习---第二天
tensorflow之深度学习---第二天
tensorflow之深度学习---第二天
tensorflow之深度学习---第二天

自定义命令行参数

可以在tensorflow运行中哪些参数可以进行修改。
tensorflow之深度学习---第二天
tensorflow之深度学习---第二天
tensorflow之深度学习---第二天
tensorflow之深度学习---第二天
tensorflow之深度学习---第二天
代码设置好之后就可以在命令行中输入参数并运行了。