python机器学习(五)回归算法-线性回归
2021-01-16 22:15
标签:opera css 性能 ogr gem 分类 lan 实现 upload 线性回归通过一个或者多个自变量与因变量之间之间进行建模的回归分析。其中特点为一个或多个称为回归系数的模型参数的线性组合。 优点: 缺点: 适用数据类型: 一元线性回归: 多元线性回归:
其中??,??为矩阵: 房子价格与房子面积 期末成绩:0.7×考试成绩+0.3×平时成绩 损失函数是一个贯穿整个机器学习重要的一个概念,大部分机器学习算法都会有误差,我们得通过显性的公式来描述这个误差,并且将这个误差优化到最小值。 预测结果与真实值是有一定的误差。 损失函数代表了误差的大小,用公式表示如下: 又称最小二乘法。 对于线性回归模型,将模型与数据点之间的距离差之和做为衡量匹配好坏的标准,误差越小,匹配程度越大。我们要找的模型就是需要将f(x)和我们的真实值之间最相似的状态。 损失函数由W决定,那么如何去求模型当中的W,使得损失最小?(目的是找到最小损失对应的W值)
求解: ??为特征值矩阵,??为目标值矩阵。 缺点:当特征过于复杂,求解速度太慢。
??为学习速率,需要手动指定,其中 表示方向 sklearn.linear_model.LinearRegression() sklearn.linear_model.SGDRegressor( ) sklearn.linear_model.Ridge 注:??^??为预测值,¯??为真实值。 注:真实值,预测值为标准化之前的值。 训练数据训练的很好啊,误差也不大,为什么在测试集上面有问题呢?机器学习可能存在过拟合和欠拟合的问题。如下图: 一个假设在训练数据上能够获得比其他假设更好的拟合, 但是在训练数据外的数据集上却不能很好地拟合数据,此时认为这个假设出现了过拟合的现象。(模型过于复杂),如下图: 原始特征过多,存在一些嘈杂特征, 模型过于复杂是因为模型尝试去兼顾各个测试数据点。 一个假设在训练数据上不能获得更好的拟合, 但是在训练数据外的数据集上也不能很好地拟合数据,此时认为这个假设出现了欠拟合的现象。(模型过于简单)。如下图: 学习到数据的特征过少。 增加数据的特征数量。 python机器学习(五)回归算法-线性回归 标签:opera css 性能 ogr gem 分类 lan 实现 upload 原文地址:https://www.cnblogs.com/huanghanyu/p/12922716.html一、线性回归的概念
1.1、定义
结果易于理解,计算不复杂。
对非线性的数据拟合不好。
数值型和标称型。1.2、分类
涉及到的变量只有一个。
涉及到的变量两个或两个以上。1.3、公式
二、线性回归的实例
2.1、单变量实例
2.2、多变量实例
西瓜好坏:0.2×色泽+0.5×根蒂+0.3×敲声三、损失函数
3.1、损失原因
3.2、损失函数定义
3.3、减小损失函数的2种方式
方式一:最小二乘法之正规方程
对于复杂的算法,不能使用正规方程求解(逻辑回归等)方式二:最小二乘法之梯度下降
理解:沿着这个函数下降的方向找,最后就能找到山谷的最低点,然后
更新W值3.4、两种方式对比:
四、线性回归API
4.1、普通最小二乘法线性回归
coef_:回归系数from sklearn.linear_model import LinearRegression
reg = LinearRegression()
# 方法
reg.fit(X,y,sample_weight = None) #使用X作为训练数据拟合模型,y作为X的类别值。X,y为数组或者矩阵
reg.predict([[X,y]]) # 预测提供的数据对应的结果
#属性
reg.coef_ #表示回归系数w=(w1,w2....)
4.2、通过使用SGD最小线性模型
coef_:回归系数4.3、带有正则化的线性回归
具有l2正则化的线性最小二乘法
alpha:正则化力度
coef_:回归系数五、实现案例
波士顿房价数据分析流程:
5.1、数据获取
from sklearn.datasets import load_boston
from sklearn.linear_model import LinearRegression, SGDRegressor, Ridge, LogisticRegression
from sklearn.model_selection import train_test_split
from sklearn.preprocessing import StandardScaler
from sklearn.metrics import mean_squared_error, classification_report
from sklearn.externals import joblib
import pandas as pd
import numpy as np
# 获取数据
lb = load_boston()
5.2、数据分割
# 分割数据集到训练集和测试集
x_train, x_test, y_train, y_test = train_test_split(lb.data, lb.target, test_size=0.25)
5.3、训练与测试数据标准化处理
# 特征值和目标值是都必须进行标准化处理, 实例化两个标准化API
std_x = StandardScaler()
x_train = std_x.fit_transform(x_train)
x_test = std_x.transform(x_test)
# 目标值
std_y = StandardScaler()
y_train = std_y.fit_transform(y_train)
y_test = std_y.transform(y_test)
5.4、线性回归模型和梯度下降估计对房价进行预测
# 正规方程求解方式预测结果
lr = LinearRegression()
lr.fit(x_train, y_train)
print(lr.coef_)
保存训练好的模型
joblib.dump(lr, "test.pkl")
# 预测测试集的房子价格
y_lr_predict = std_y.inverse_transform(lr.predict(x_test))
print("正规方程测试集里面每个房子的预测价格:", y_lr_predict)
print("正规方程的均方误差:", mean_squared_error(std_y.inverse_transform(y_test), y_lr_predict))
# 梯度下降进行房价预测
sgd = SGDRegressor()
sgd.fit(x_train, y_train)
print(sgd.coef_)
# 预测测试集的房子价格
y_sgd_predict = std_y.inverse_transform(sgd.predict(x_test))
print("梯度下降测试集里面每个房子的预测价格:", y_sgd_predict)
print("梯度下降的均方误差:", mean_squared_error(std_y.inverse_transform(y_test), y_sgd_predict))
# 岭回归进行房价预测
rd = Ridge(alpha=1.0)
rd.fit(x_train, y_train)
print(rd.coef_)
# 预测测试集的房子价格
y_rd_predict = std_y.inverse_transform(rd.predict(x_test))
print("梯度下降测试集里面每个房子的预测价格:", y_rd_predict)
print("梯度下降的均方误差:", mean_squared_error(std_y.inverse_transform(y_test), y_rd_predict))
六、回归的性能评估
6.1、均方差误差评估机制 (MSE):
6.2、回归评估API:
sklearn.metrics.mean_squared_error
mean_squared_error(y_true, y_pred)
均方误差回归损失
y_true:真实值
y_pred:预测值
return:浮点数结果
七、线性回归的可能问题
7.1、过拟合
产生原因:
解决办法:
7.2、欠拟合
产生原因:
解决办法:
上一篇:Python-GUI程序设计
下一篇:数据结构与算法
文章标题:python机器学习(五)回归算法-线性回归
文章链接:http://soscw.com/index.php/essay/42910.html