机器学习100天 第二天 简单线性回归模型
简单线性回归
使用单一特征值来预测响应值
这种方法是基于自变量X来预测因变量值Y的方法,假设这两个变量是线性相关。
在这个任务重使用最佳拟合曲线来最小化预测误差——回归线的误差将是最小的。
实验步骤
第一步是数据预处理
导入相关库,数据集,检查缺失的数据,划分数据,特征缩放将使用简单线性模型的相关库进行
#数据预处理
import pandas as pd
import numpy as np
import matplotlib.pyplot as plt
dataset = pd.read_csv('studentscores.csv')
X = dataset.iloc[: , :1 ].values
Y = dataset.iloc[: ,1].values
from sklearn.model_selection import train_test_split
X_train,X_test,Y_train,Y_test = train_test_split(X,Y,test_size = 1/4,random_state = 0)
第二步是通过训练集来训练简单线性回归模型
使用来自sklearn.linear_model
库中的LinearRegression
类,的regressor
对象,最后使用LinearRegression
类的fit()
方法将regressor
对象对数据集进行训练
#第二步:训练集使用简单线性回归模型来训练
from sklearn.linear_model import LinearRegression
regressor = LinearRegression()
regressor = regressor.fit(X_train,Y_train)
第三步是预测结果
将输出保存在Y_pred
中
#第三步,预测结果
Y_pred = regressor.predict(X_test)
第四步是可视化
使用matplotlib.pyplot
库对结果嘴散点图遗产看预测效果
#第四步,可视化,训练集结果可视化
plt.scatter(X_train,Y_train,color = 'red')
plt.plot(X_train,regressor.predict(X_train),color = 'blue')
plt.show
#测试结果可视化
plt.scatter(X_test,Y_test,color = 'blue')
plt.show()