线性回归拟合二维数据

# -*- coding: utf-8 -*-
import tensorflow as tf
import numpy as np
import matplotlib.pyplot as plt #matplotlib.pyplot 2D绘图库 类似MATLAB的一种绘图框架


plotdata = { "batchsize":[], "loss":[] }
def moving_average(a, w=10):
    if len(a) < w: 
        return a[:]    
    return [val if idx < w else sum(a[(idx-w):idx])/w for idx, val in enumerate(a)]


#准备数据
train_x = np.linspace(-1,1,100) #生成-1到1之间的等差数列
train_y = 2 * train_x + np.random.randn(*train_x.shape) * 0.3 #从标准正态分布中返回(size)的样本值 y=2x,但是加入了噪声
plt.plot(train_x, train_y, 'ro', label='original data')
plt.legend()
plt.show()


#创建模型
#占位符
x=tf.placeholder('float')
y=tf.placeholder('float')

#模型参数
w=tf.Variable(tf.random_normal([1]),name='weight') #tf.random_normal(shape, mean=0.0, stddev=1.0, dtype=tf.float32, seed=None, name=None)
b=tf.Variable(tf.zeros([1]),name='bias')

#前向结构
z=tf.multiply(x,w)+b

#反向优化
cost=tf.reduce_mean(tf.square(y-z)) #tf.square()对括号中的每一个元素求平方
learning_rate=0.01
optimizer=tf.train.GradientDescentOptimizer(learning_rate).minimize(cost)

#训练模型
#初始化参数
init=tf.global_variables_initializer()
#定义参数
training_epochs=20
display_step=2

#启动session
with tf.Session() as sess:
   sess.run(init)

   #plotdata={'batchsize':[],'loss':[]}
   for epoch in range(training_epochs):
       for (x1,y1) in zip(train_x,train_y): #zip函数接受任意多个可迭代对象作为参数,将对象中对应的元素打包成一个tuple,然后返回一个可迭代的zip对象
          sess.run(optimizer,feed_dict={x:x1,y:y1})
       #显示训练中的详细信息
       if epoch % display_step ==0:
          loss = sess.run(cost,feed_dict={x:train_x,y:train_y})
          print('epoch:',epoch+1,'cost=',loss,'w=',sess.run(w),'b=',sess.run(b))
          if not (loss=='NA'):
             plotdata['batchsize'].append(epoch)
             plotdata['loss'].append(loss)

   print('Finish!')
   print('cost=',sess.run(cost,feed_dict={x:train_x,y:train_y}),'w=',sess.run(w),'b=',sess.run(b))
 

   #图形显示
   plt.plot(train_x, train_y, 'ro', label='Original data')
   plt.plot(train_x, sess.run(w) * train_x + sess.run(b), label='Fitted line')
   plt.legend()
   plt.show()
    
   plotdata["avgloss"] = moving_average(plotdata["loss"])
   plt.figure(1)
   plt.subplot(211)
   plt.plot(plotdata["batchsize"], plotdata["avgloss"], 'b--')
   plt.xlabel('Minibatch number')
   plt.ylabel('Loss')
   plt.title('Minibatch run vs. Training loss')
     
   plt.show()

   print ("x=0.2,z=", sess.run(z, feed_dict={x: 0.2}))

得出的结果
原始数据

线性回归拟合二维数据
拟合的参数值:
线性回归拟合二维数据
拟合的直线:
线性回归拟合二维数据
随迭代下降的loss:
线性回归拟合二维数据
最后验证,x=0.2时, z= [0.41574422].