1. 术语解释
监督学习 :利用一组有标签的样本数据训练和调优模型参数,使其达到所要求性能的过程。
分类模型 :分类的输出为研究对象所属的类别,类别状态个数有限且离散,是一种定性分析。例如,天气晴、阴、雨三种类型,明天天气预测一定是属于这三种天气类型之一。
回归模型 :回归所预测输出为连续的数值类型,属于一种定量分析。例如,回归模型用于预测明天降雨量具体是多少,是一个连续的变量。
2. 回归模型
2.1 线性回归
线性回归假设因变量和自变量之间是线性的,表征了从输入变量到输出变量之间的线性映射关系,利用回归方程对一个或多个自变量和因变量之间关系进行建模的一种分析方式,数学形式 y=kx+b。根据自变量的数目可划分为一元线性回归和多元线性回归。
应用场景:要求自变量和因变量是线性关系,如身高体重预测、工龄薪资预测、房价预测等。
2.1.1 一元线性回归实例
我们结合身高_体重曲线拟合案例,介绍一元线性回归的实际应用。本案例主要目的是根据身高和体重数据拟合一条最佳曲线,输入身高值就可以预测出体重。
本案例使用的数据集包括600个样本,部分数据如下
从表中可以获知该数据集包括三个标签,即“gender”,“height”,“weight”,其中“height”项作为自变量H(输入),“weight”为因变量W(输出),建立一元线性回归模型 W = a H + b W=aH+b W = a H + b 进行数据拟合,python实现过程如下:
(1)首先,导入数据,500个样本作为训练集,其余100测试集用于验证
(2)使用sklearn提供的线性回归函数拟合数据,或者直接使用正规方程,求解模型参数a和b
(3) 输出结果:
所得线性回归方程为:
W = 1.07 H − 102.10 W=1.07H-102.10 W = 1.07 H − 102.10
2.1.2 多元线性回归实例
波士顿房地产市场竞争激烈,而你想成为该地区最好的房地产经纪人。为了更好地与同行竞争,你决定运用机器学习的一些基本概念,帮助客户为自己的房产定下最佳售价。幸运的是,你找到了波士顿房价的数据集,里面聚合了波士顿包含多个特征维度的房价数据。你的任务是用可用的工具进行统计分析,并基于分析建立优化模型,这个模型将用来为你的客户评估房产的最佳售价。
数据集如下图所示,本数据集共包含381条样本,每个样本包含13个特征维度,309个作为训练集,72个测试集。
(1)利用多元线性回归模型对数据进行学习,并预测测试集数据。将CRIM, ZN, INDUS, CHAS, NOX, RM, AGE, DIS, RAD, TAX, PTRATIO, B, LSTAT这13个特征作为训练输入,MEDA特征看作输出,建立以下线性回归方程
y = θ 0 x 0 + θ 1 x 1 + ⋯ + θ 12 x 12 + θ 13 y=\theta_0x_{0}+\theta_1x_{1}+\cdots+\theta_{12}x_{12}+\theta_{13} y = θ 0 x 0 + θ 1 x 1 + ⋯ + θ 12 x 12 + θ 13
其中 θ T = ( θ 0 , θ 1 , ⋯ , θ 13 ) \theta^T=(\theta_0,\theta_1,\cdots,\theta_{13}) θ T = ( θ 0 , θ 1 , ⋯ , θ 13 ) 为待学习的14个系数,这样波士顿房价问题就转化为一个多元线性回归问题。
(2)老规矩,先上代码,导入数据集
(3)LinearRegression()进行模型训练,求解参考式(2.1.8)正规方程
(4)结果分析
可知波士顿房价多元线性回归方程为
y = − 11.05 x 0 + 4.75 x 1 + 1.22 x 2 + 1.72 x 3 − 7.33 x 4 + 21.38 x 5 − 0.99 x 6 − 14.13 x 7 + 8.03 x 8 − 6.51 x 9 − 8.55 x 10 + 3.42 x 11 − 17.53 x 12 + 25.47 y=-11.05x_0+4.75x_1+1.22x_2+1.72x_3-7.33x_4+21.38x_5-0.99x_6\\-14.13x_7+8.03x_8-6.51x_9-8.55x_{10}+3.42x_{11}-17.53x_{12}+25.47 y = − 11.05 x 0 + 4.75 x 1 + 1.22 x 2 + 1.72 x 3 − 7.33 x 4 + 21.38 x 5 − 0.99 x 6 − 14.13 x 7 + 8.03 x 8 − 6.51 x 9 − 8.55 x 10 + 3.42 x 11 − 17.53 x 12 + 25.47
2.1.3 算法原理
A. 一元 线性回归
给定一组由输入 x x x 和输出 y y y 构成的训练数据集 D = { ( x 1 , y 1 ) , ( x 2 , y 2 ) , ⋯ , ( x m , y m ) } D=\{(x_1, y_1), (x_2, y_2),\cdots,(x_m, y_m)\} D = {( x 1 , y 1 ) , ( x 2 , y 2 ) , ⋯ , ( x m , y m )} ,y i ∈ R y_i\in R y i ∈ R 线性回归就是通过该训练集训练得到一个线性模型来最大限度地根据输入 x x x 拟合输出 y y y ,使得 y ≅ y ^ = w ^ x + b y\cong \hat{y}=\hat{w}x+b y ≅ y ^ = w ^ x + b 。因此,线性回归任务的关键在于确定参数 w ^ \hat{w} w ^ 和 b b b ,使得拟合输出 y ^ \hat{y} y ^ 尽可能逼近真实输出 y y y ,通常使用残差平方和函数来表示预测值与实际值之间的损失函数
L ( w ^ , b ) = ∑ i = 1 m ( y ^ i − y i ) 2 = ∑ i = 1 m ( w ^ x i + b − y i ) 2 ( 2.1.1 ) L(\hat{w}, b)= \displaystyle \sum_{i=1}^m (\hat{y}_i -y_i)^2 = \displaystyle\sum_{i=1}^m (\hat{w}x_i+b-y_i)^2 \qquad\qquad (2.1.1) L ( w ^ , b ) = i = 1 ∑ m ( y ^ i − y i ) 2 = i = 1 ∑ m ( w ^ x i + b − y i ) 2 ( 2.1.1 )
为使损失函数值 L ( w ^ , b ) L(\hat{w}, b) L ( w ^ , b ) 最小化,分别对 w ^ \hat{w} w ^ 和 b b b 求一阶偏导
{ ∂ L ( w ^ , b ) ∂ w ^ = 2 [ w ∑ i = 1 m x i 2 − ∑ i = 1 m x i y i + b ∑ i = 1 m x i ] ∂ L ( w ^ , b ) ∂ b = 2 [ m b − ∑ i = 1 m ( y i − w ^ x i ) ] ( 2.1.2 ) \begin{cases} \frac{\partial{L(\hat{w}, b)}}{\partial{\hat{w}}} = 2 [w \displaystyle\sum_{i=1}^m x_i^2 – \displaystyle\sum_{i=1}^m x_iy_i + b \displaystyle\sum_{i=1}^m x_i]\\ \frac{\partial{L(\hat{w}, b)}}{\partial{b}} =2 [mb – \displaystyle\sum_{i=1}^m (y_i – \hat{w}x_i)] \end{cases}\qquad\qquad (2.1.2) ⎩ ⎨ ⎧ ∂ w ^ ∂ L ( w ^ , b ) = 2 [ w i = 1 ∑ m x i 2 − i = 1 ∑ m x i y i + b i = 1 ∑ m x i ] ∂ b ∂ L ( w ^ , b ) = 2 [ mb − i = 1 ∑ m ( y i − w ^ x i )] ( 2.1.2 )
令上式 ∂ L ( w ^ , b ) ∂ w ^ = 0 \frac{\partial{L(\hat{w}, b)}}{\partial{\hat{w}}} = 0 ∂ w ^ ∂ L ( w ^ , b ) = 0 ,∂ L ( w ^ , b ) ∂ b = 0 \frac{\partial{L(\hat{w}, b)}}{\partial{b}} = 0 ∂ b ∂ L ( w ^ , b ) = 0 ,可得到最优解析解 w ^ ∗ \hat{w}^* w ^ ∗ 和 b ∗ b^* b ∗ 代数式
{ w ^ ∗ = ∑ i = 1 m x i y i − 1 m ∑ i = 1 m x i ∑ i = 1 m y i ∑ i = 1 m x i 2 − 1 m ( ∑ i = 1 m x i ) 2 b ∗ = 1 m ∑ i = 1 m ( y i − w ^ ∗ x i ) ( 2.1.3 ) \begin{cases} \hat{w}^* = \frac{ \displaystyle\sum_{i=1}^m x_iy_i – \frac{1}{m}{\displaystyle\sum_{i=1}^m x_i} \displaystyle\sum_{i=1}^m y_i } {\displaystyle \sum_{i=1}^m x_i^2 – \frac{1}{m} (\displaystyle\sum_{i=1}^m x_i)^2} \\ b^* = \frac{1}{m} {\displaystyle \sum_{i=1}^m} {(y_i-\hat{w}^*x_i)} \end{cases}\qquad\qquad (2.1.3) ⎩ ⎨ ⎧ w ^ ∗ = i = 1 ∑ m x i 2 − m 1 ( i = 1 ∑ m x i ) 2 i = 1 ∑ m x i y i − m 1 i = 1 ∑ m x i i = 1 ∑ m y i b ∗ = m 1 i = 1 ∑ m ( y i − w ^ ∗ x i ) ( 2.1.3 )
B. 多元 线性回归
一元线性回归研究的是目标变量和一个自变量之间的回归问题,但有时候在很多实际问题中,影响目标变量的自变量往往不止一个,而是多个,比如绵羊的产毛量这一变量同时受到绵羊体重、胸围、体长等多个变量共同影响,因此需要设计一个目标变量与多个自变量间的回归分析,即多元回归分析。
给定一组由输入 x x x 和输出 y y y 构成的多特征训练数据集 D = { ( x 1 , y 1 ) , ( x 2 , y 2 ) , ⋯ , ( x m , y m ) } D=\{(x_1, y_1), (x_2, y_2),\cdots,(x_m, y_m)\} D = {( x 1 , y 1 ) , ( x 2 , y 2 ) , ⋯ , ( x m , y m )} ,其中 x i ∈ ( x i 1 ; x i 2 ; ⋯ ; x i d ) x_i \in (x_{i1}; x_{i2}; \cdots; x_{id}) x i ∈ ( x i 1 ; x i 2 ; ⋯ ; x i d ) ,y i ∈ R y_i\in R y i ∈ R , d d d 为输入的特征数量,多元线性回归一般方程为
y i = w 1 x i 1 + w 2 x i 2 + ⋯ + w d x i d + b ( 2.1.4 ) y_i=w_1x_{i1}+w_2x_{i2}+\cdots+w_dx_{id}+b \qquad\qquad (2.1.4) y i = w 1 x i 1 + w 2 x i 2 + ⋯ + w d x i d + b ( 2.1.4 )
将参数向量 w w w 与截距 b b b 合并为向量表达形式,w ^ = ( w ; b ) = ( w 1 ; w 2 ; ⋯ ; w d ; w d + 1 ) \hat{w}=(w; b)=(w_1;w_2;\cdots;w_d;w_{d+1}) w ^ = ( w ; b ) = ( w 1 ; w 2 ; ⋯ ; w d ; w d + 1 ) 。此时训练集输入部分可表示为一个 m × ( d + 1 ) m \times (d+1) m × ( d + 1 ) 维的矩阵 X X X
X = ( x 11 x 12 ⋯ x 1 d 1 x 21 x 22 ⋯ x 2 d 1 ⋮ ⋮ ⋱ ⋮ ⋮ x m 1 x m 2 ⋯ x m d 1 ) ( 2.1.5 ) X=\begin{pmatrix} x_{11}&x_{12}&\cdots&x_{1d} &1 \\ x_{21}&x_{22}&\cdots&x_{2d} &1 \\ \vdots&\vdots&\ddots&\vdots&\vdots \\ x_{m1}&x_{m2}&\cdots&x_{md} &1 \\ \end{pmatrix} \qquad\qquad (2.1.5) X = ⎝ ⎛ x 11 x 21 ⋮ x m 1 x 12 x 22 ⋮ x m 2 ⋯ ⋯ ⋱ ⋯ x 1 d x 2 d ⋮ x m d 1 1 ⋮ 1 ⎠ ⎞ ( 2.1.5 )
输出向量 y = ( y i 1 ; y i 2 ; ⋯ ; y i d ) y=(y_{i1}; y_{i2}; \cdots; y_{id}) y = ( y i 1 ; y i 2 ; ⋯ ; y i d ) ,可得损失函数矩阵形式
L ( w ^ ) = ( y − X w ^ ) T ( y − X w ^ ) = ∥ y − X w ^ ∥ 2 2 ( 2.1.6 ) L(\hat{w})=(y-X\hat{w})^T(y-X\hat{w})= {\begin{Vmatrix} y-X\hat{w} \end{Vmatrix}_2}^2 \qquad\qquad (2.1.6) L ( w ^ ) = ( y − X w ^ ) T ( y − X w ^ ) = ∥ ∥ y − X w ^ ∥ ∥ 2 2 ( 2.1.6 )
对上式求偏导可得
∂ L ( w ^ ) ∂ w ^ = 2 X T ( X w ^ − y ) = 0 ( 2.1.7 ) \frac {\partial L(\hat{w})} {\partial \hat{w}} =2X^T(X\hat{w}-y)=0 \qquad\qquad (2.1.7) ∂ w ^ ∂ L ( w ^ ) = 2 X T ( X w ^ − y ) = 0 ( 2.1.7 )
该多元线性回归的正规方程解为
w ^ ∗ = ( X T X ) − 1 X T y ( 2.1.8 ) \hat{w}^*=(X^TX)^{-1}X^Ty \qquad\qquad (2.1.8) w ^ ∗ = ( X T X ) − 1 X T y ( 2.1.8 )
求得多元线性回归方程点积形式为
y ^ = ( x k 1 x k 2 ⋯ x k d 1 ) ⋅ ( w ^ 1 ∗ w ^ 2 ∗ ⋯ w ^ d ∗ w ^ d + 1 ∗ ) = w ^ 1 ∗ x k 1 + w ^ 2 ∗ x k 2 + ⋯ + w ^ d ∗ x k d + w ^ d + 1 ∗ ( 2.1.9 ) \hat{y}= \begin{pmatrix} x_{k1}&{x_{k2}}&\cdots&{x_{kd}}&1\\ \end{pmatrix} \cdot \begin{pmatrix} \hat{w}_1^*&\hat{w}_2^*&\cdots &\hat{w}_d^*&\hat{w}_{d+1}^*\\ \end{pmatrix}\\ \quad\\ = \hat{w}_1^*x_{k1} + \hat{w}_2^* x_{k2} + \cdots + \hat{w}_d^* {x_{kd}}+\hat{w}_{d+1}^* \qquad\qquad (2.1.9) y ^ = ( x k 1 x k 2 ⋯ x k d 1 ) ⋅ ( w ^ 1 ∗ w ^ 2 ∗ ⋯ w ^ d ∗ w ^ d + 1 ∗ ) = w ^ 1 ∗ x k 1 + w ^ 2 ∗ x k 2 + ⋯ + w ^ d ∗ x k d + w ^ d + 1 ∗ ( 2.1.9 )
① 当数据量较小时,该方法求最优解是可行的,当数据量很大时,对矩阵求逆运算量极大,这就需要使用梯度下降方法或者牛顿迭代法逼近最优解;
② 当 X X X 为非满秩矩阵时,奇异阵 X T X X^TX X T X 的逆矩阵不存在,不能采用最小二乘法求解。
C. 梯度下降法
首先,计算代价函数 J ( w ^ ) = 1 2 m ∥ y − X w ^ ∥ 2 2 J(\hat{w})= \frac{1}{2m} {\begin{Vmatrix} y-X\hat{w} \end{Vmatrix}_2}^2 J ( w ^ ) = 2 m 1 ∥ ∥ y − X w ^ ∥ ∥ 2 2 的一阶梯度向量
∇ J ( w ^ ) = 1 m ⋅ X T ( X w ^ − y ) ( 2.1.10 ) \nabla_{J(\hat{w})} = \frac{1}{m} \cdot X^T(X\hat{w}-y) \qquad\qquad (2.1.10) ∇ J ( w ^ ) = m 1 ⋅ X T ( X w ^ − y ) ( 2.1.10 )
给定一个任意点 w 0 ^ = ( w 1 ; w 2 ; ⋯ ; w d + 1 ) \hat{w_0}=(w_1;w_2;\cdots;w_{d+1}) w 0 ^ = ( w 1 ; w 2 ; ⋯ ; w d + 1 ) ,设定步长(学习率) α ∈ [ 0 , 1 ] \alpha \in [0, 1] α ∈ [ 0 , 1 ] ,容差 δ → 0 \delta \rarr 0 δ → 0 ,迭代下式
w ^ t + 1 ← w ^ t − α ∇ J ( w ^ t ) ( 2.1.11 ) \hat{w}_{t+1} \larr \hat{w}_t – \alpha \nabla_{J(\hat{w}_t)} \qquad\qquad (2.1.11) w ^ t + 1 ← w ^ t − α ∇ J ( w ^ t ) ( 2.1.11 )
直至满足∥ ∇ J ( w ^ t ) ∥ 2 < δ {\begin{Vmatrix} \nabla_{J(\hat{w}_t)} \end{Vmatrix}_2} < \delta ∥ ∥ ∇ J ( w ^ t ) ∥ ∥ 2 < δ ,此时总梯度趋近于0,说明在函数在 w ^ t \hat{w}_t w ^ t 处取最小值。
2.2 Ridge回归
Ridge回归可以看作是线性回归的改进算法,Ridge回归通过L2正则化项来改进损失函数,以增强回归算法的鲁棒性。以房价估计为例,在影响房价的众多因素中,会存在一些对房价影响基本可以忽略不计的因素,如何从众多因素中找到关键影响因素,对无关紧要的因素进行权重压缩是一个值得考虑的问题。由式(2.1.8)可知线性回归的最优参数估计为 w ^ ∗ = ( X T X ) − 1 X T y \hat{w}^*=(X^TX)^{-1}X^Ty w ^ ∗ = ( X T X ) − 1 X T y ,当训练样本的特征数大于样本数量时,矩阵 X X X 非满秩,X T X X^TX X T X 不可逆,所以 w ^ ∗ \hat{w}^* w ^ ∗ 是不可估计的。
2.2.1 应用实例
序号
price
bedrooms
bathrooms
living_sqrt
floors
0
545000
3
2.25
1670
1
1
765000
4
2.5
3300
2
2
720000
3
3.25
3190
2
以二手房房价估计问题为例,我们使用Ridge回归来解决该回归问题,本案例的输入为卧室数量(bedrooms)、卫生间数量(bathrooms)、居住面积(living_sqrt)和楼层(floors)4个特征,输出为房子的价格。
目前我们手中只有三个样本作为训练数据,此时样本数量(3)<特征数(4),X T X X^TX X T X 为奇异矩阵,故使用线性回归求解是不可行的。 此时我们可以使用 Ridge 回归算法来解决该问题,根据式(2.2.3)正规方程中的输入项,对训练数据进行整理,可得
{ y = ( 545000 ; 765000 ; 720000 ) X = ( 3 2.25 1670 1 1 4 2.5 3300 2 1 3 3.25 3190 2 1 ) λ = 0.1 \begin {cases} y=(545000;765000;720000)\\ X=\begin{pmatrix} 3&2.25&1670&1&1 \\ 4&2.5&3300&2&1 \\ 3&3.25&3190&2&1 \\ \end{pmatrix} \\ \lambda=0.1\\ \end{cases} ⎩ ⎨ ⎧ y = ( 545000 ; 765000 ; 720000 ) X = ⎝ ⎛ 3 4 3 2.25 2.5 3.25 1670 3300 3190 1 2 2 1 1 1 ⎠ ⎞ λ = 0.1
代入式(2.2.3)得该 Ridge 回归房价数学模型为
y ^ = 79161 x 0 + 56801 x 1 + 84 x 2 − 1739 x 3 + 33689 \hat{y}= 79161x_0+56801x_1+84x_2-1739x_3+33689 y ^ = 79161 x 0 + 56801 x 1 + 84 x 2 − 1739 x 3 + 33689
2.2.2 算法原理
Ridge回归(岭回归)在线性回归损失函数(2.1.6)中加入一个L2正则化项来改造损失函数模型
L ( w ^ ) = ( y − X w ^ ) T ( y − X w ^ ) + λ ∥ w ^ ∥ 2 2 ( 2.2.1 ) L(\hat{w})= (y-X\hat{w})^T(y-X\hat{w}) +\lambda {\begin{Vmatrix} \hat{w} \end{Vmatrix}_2}^2 \qquad\qquad (2.2.1) L ( w ^ ) = ( y − X w ^ ) T ( y − X w ^ ) + λ ∥ ∥ w ^ ∥ ∥ 2 2 ( 2.2.1 )
λ \lambda λ 为正则化系数,二范数为惩罚项。 通过采用有偏估计,以舍弃一部分信息与精度为代价,从而使得函数模型更加可靠,模型与病态数据的拟合性更好。更有趣的是,相比L1范数(Lasso回归),式(2.2.1)中的L2范数正则化项是连续可微的,即可以通过函数的一阶梯度向量求得最优解
∇ w ^ L ( w ^ ) = 2 X T ( y − X w ^ ) + 2 λ w ^ ( 2.2.2 ) \nabla_{\hat{w}}{L(\hat{w})} = 2X^T(y-X\hat{w})+2\lambda \hat{w} \qquad\qquad (2.2.2) ∇ w ^ L ( w ^ ) = 2 X T ( y − X w ^ ) + 2 λ w ^ ( 2.2.2 )
令上式 ∂ ∂ w ^ L ( w ^ ) = 0 \frac{\partial}{\partial \hat{w}}L(\hat{w})=0 ∂ w ^ ∂ L ( w ^ ) = 0 ,最优解 w ∗ w^* w ∗ 矩阵形式为
w ^ ∗ = ( X T X + λ E ) − 1 X T y ( 2.2.3 ) \hat{w}^*=(X^TX+\lambda E)^{-1}X^Ty \qquad\qquad\qquad\qquad (2.2.3) w ^ ∗ = ( X T X + λ E ) − 1 X T y ( 2.2.3 )
其中 E E E 为单位阵。当数据量较大时,同样也可以使用梯度下降方法求解
2.3 多项式回归
线性回归和Ridge回归的局限性是只能应用于存在严格线性关系的数据中,但是在实际生活中,很多数据之间是非线性关系,虽然也可以用线性回归拟合非线性回归,但是效果会变差,这时候就需要对线性回归模型进行改进,使之能够拟合非线性数据。
多项式回归研究因变量与一个或多个自变量间多项式的回归分析方法。如果自变量只有一个时,称为一元多项式回归,数学定义为 y = θ 0 + θ 1 x + θ 2 x 2 + ⋯ + θ n x n y= \theta_0 + \theta_1x+ \theta_2x^2+ \cdots + \theta_nx^n y = θ 0 + θ 1 x + θ 2 x 2 + ⋯ + θ n x n ;如果自变量有多个时,称为多元多项式回归。多项式回归相对于其他的回归分析方法有一个很大的优点,它可以依次增加多项式的次数,这样一步一步地对观测点进行逼近通过观察模拟效果和误差分析以至达到最好的效果。
应用场景:数据存在非线性关系
2.3.1 一元二阶多项式回归实例
一元二阶多项式,简单说即 y = a x 2 + b x + c y=ax^2+bx+c y = a x 2 + b x + c 。我们有一批关于房屋建筑面积和成交价格的数据集,我们需要做的是采用合适的方法拟合这些数据得到一个模型,通过该模型输入一个任意 area 可以预测到 price。数据集如下表,信息包括房屋的面积 area 以及对应的成交价格 price 两个属性,由此可推断该问题是一个一元回归问题,一元回归方法包括线性回归或多项式回归,但究竟应该使用哪一种方案对房屋价格进行预测更加适合呢?
(1)首先,我们可以根据数据散点图的特点观察判断数据是线性或非线性,再选择最佳的回归方法。画出上表中数据散点分布图如下图所示,可以看出该图具有抛物线特征,故我们选取一元二次多项式拟合方法,即
y = w 0 + w 1 x + w 2 x 2 y= w_0 + w_1x+ w_2x^2 y = w 0 + w 1 x + w 2 x 2
其中 x x x 代表房屋面积,y y y 为价格,w i w_i w i 是待学习参数。从本质上看,本例中多项式回归将原本只有一个特征维度的数据集拓展成一个二维度数据集,x x x 和 x 2 x^2 x 2 ,具有升维作用。
(2)数据预处理,数据分割
(3)建立一元二次多项式,使用线性回归模型对参数进行训练
(4)结果显示
所求二次多项式回归方程为
y = 309.81 − 0.0997 x + 0.0000485 x 2 y=309.81-0.0997x+0.0000485x^2 y = 309.81 − 0.0997 x + 0.0000485 x 2
2.3.2 算法原理
A. 一元多项式回归
在一元回归分析中,如果数据 ( x i , y i ) , i = 1 , 2 , ⋯ , m (x_i,y_i),i=1,2,\cdots,m ( x i , y i ) , i = 1 , 2 , ⋯ , m 的关系为非线性的,此时使用线性回归找不到理想的线性函数对曲线进行拟合,可以采用一元多项式回归,一元d d d 阶多项式回归方程如下
y ^ i = w ^ 0 + w ^ 1 x i + w ^ 2 x i 2 + ⋯ + w ^ d x i d ( 2.3.1 ) \hat{y}_i= \hat{w}_0 + \hat{w}_1x_i+ \hat{w}_2x_i^2 + \cdots + \hat{w}_dx_i^d \qquad\qquad\qquad (2.3.1) y ^ i = w ^ 0 + w ^ 1 x i + w ^ 2 x i 2 + ⋯ + w ^ d x i d ( 2.3.1 )
通过变量转换办法,令 t i 1 = x i , t i 2 = x i 2 , ⋯ , t i d = x i d t_{i1}=x_i,t_{i2}=x_i^2,\cdots,t_{id}=x_i^d t i 1 = x i , t i 2 = x i 2 , ⋯ , t i d = x i d ,此时可以将式(2.3.1)变形得到一个 d d d 元线性回归方程
y ^ i = w ^ 0 + w ^ 1 t i 1 + w ^ 2 t i 2 + ⋯ + w ^ d t i d ( 2.3.2 ) \hat{y}_i= \hat{w}_0 + \hat{w}_1t_{i1}+ \hat{w}_2t_{i2 }+ \cdots + \hat{w}_dt_{id} \qquad\qquad\qquad (2.3.2) y ^ i = w ^ 0 + w ^ 1 t i 1 + w ^ 2 t i 2 + ⋯ + w ^ d t i d ( 2.3.2 )
写成矩阵表达形式为
y ^ i = T w ^ = ( 1 t i 1 t i 2 ⋯ t i d ) ( w ^ 0 w ^ 1 w ^ 2 ⋮ w ^ d ) ( 2.3.3 ) \hat{y}_i=T\hat{w}= \begin{pmatrix} 1&t_{i1}&t_{i2}&\cdots&t_{id} \end{pmatrix} \begin{pmatrix} \hat{w}_0\\ \hat{w}_1\\ \hat{w}_2\\ \vdots\\ \hat{w}_d \end{pmatrix} \qquad\qquad (2.3.3) y ^ i = T w ^ = ( 1 t i 1 t i 2 ⋯ t i d ) ⎝ ⎛ w ^ 0 w ^ 1 w ^ 2 ⋮ w ^ d ⎠ ⎞ ( 2.3.3 )
由2.1部分数学推导可知线性回归正规方程解为
w ^ ∗ = ( T T T ) − 1 T T y ( 2.3.4 ) \hat{w}^*=(T^TT)^{-1}T^Ty \qquad\qquad (2.3.4) w ^ ∗ = ( T T T ) − 1 T T y ( 2.3.4 )
其中
T = ( 1 t 11 t 12 ⋯ t 1 d 1 t 21 t 22 ⋯ t 2 d ⋮ ⋮ ⋱ ⋮ ⋮ 1 t m 1 t m 2 ⋯ t m d ) = ( 1 x 1 x 1 2 ⋯ x 1 d 1 x 2 x 2 2 ⋯ x 2 d ⋮ ⋮ ⋱ ⋮ ⋮ 1 x m x m 2 ⋯ x m d ) , y = ( y 1 y 2 ⋮ y m ) T= \begin{pmatrix} 1&t_{11}&t_{12}&\cdots&t_{1d}\\ 1&t_{21}&t_{22}&\cdots&t_{2d}\\ \vdots&\vdots&\ddots&\vdots&\vdots \\ 1&t_{m1}&t_{m2}&\cdots&t_{md}\\ \end{pmatrix} = \begin{pmatrix} 1&x_1&x_1^2&\cdots&x_1^d\\ 1&x_2&x_2^2&\cdots&x_2^d\\ \vdots&\vdots&\ddots&\vdots&\vdots \\ 1&x_m&x_m^2&\cdots&x_m^d\\ \end{pmatrix}, y= \begin{pmatrix} y_1\\ y_2\\ \vdots\\ y_m \end{pmatrix} T = ⎝ ⎛ 1 1 ⋮ 1 t 11 t 21 ⋮ t m 1 t 12 t 22 ⋱ t m 2 ⋯ ⋯ ⋮ ⋯ t 1 d t 2 d ⋮ t m d ⎠ ⎞ = ⎝ ⎛ 1 1 ⋮ 1 x 1 x 2 ⋮ x m x 1 2 x 2 2 ⋱ x m 2 ⋯ ⋯ ⋮ ⋯ x 1 d x 2 d ⋮ x m d ⎠ ⎞ , y = ⎝ ⎛ y 1 y 2 ⋮ y m ⎠ ⎞
所求一元 d d d 阶多项式回归方程为
y ^ = ( 1 x x 2 ⋯ x d ) ⋅ ( w ^ 0 ∗ w ^ 1 ∗ w ^ 2 ∗ ⋯ w ^ d ∗ ) = w ^ 0 ∗ + w ^ 1 ∗ x + w ^ 2 ∗ x 2 + ⋯ + w ^ d ∗ x d ( 2.3.5 ) \hat{y}= \begin{pmatrix} 1&x&{x}^2&\cdots&{x}^d\\ \end{pmatrix} \cdot \begin{pmatrix} \hat{w}_0^*&\hat{w}_1^*&\hat{w}_2^*&\cdots&\hat{w}_d^*\\ \end{pmatrix}\\ \quad\\ = \hat{w}_0^* + \hat{w}_1^* x+ \hat{w}_2^* {x}^2 + \cdots + \hat{w}_d^* {x}^d \qquad\qquad (2.3.5) y ^ = ( 1 x x 2 ⋯ x d ) ⋅ ( w ^ 0 ∗ w ^ 1 ∗ w ^ 2 ∗ ⋯ w ^ d ∗ ) = w ^ 0 ∗ + w ^ 1 ∗ x + w ^ 2 ∗ x 2 + ⋯ + w ^ d ∗ x d ( 2.3.5 )
B. 多元多项式回归
当一个非线性数据集包含两个及两个以上特征变量时,该问题变成多元多项式回归问题。我们以简单的二元二阶多项式为例,考虑训练数据集 D = { ( x 1 , y 1 ) , ( x 2 , y 2 ) , ⋯ , ( x m , y m ) } D=\{(x_1, y_1), (x_2, y_2),\cdots,(x_m, y_m)\} D = {( x 1 , y 1 ) , ( x 2 , y 2 ) , ⋯ , ( x m , y m )} ,其中 x i ∈ ( x i 1 ; x i 2 ) x_i \in (x_{i1}; x_{i2}) x i ∈ ( x i 1 ; x i 2 ) ,y i ∈ R y_i\in R y i ∈ R ,其回归方程定义如下
y i ^ = w ^ 0 + w ^ 1 x i 1 + w ^ 2 x i 2 + w ^ 3 x i 1 x i 2 + w ^ 4 x i 1 2 + w ^ 5 x i 2 2 ( 2.3.6 ) \hat{y_i} = \hat{w}_0+ \hat{w}_1x_{i1}+ \hat{w}_2x_{i2}+ \hat{w}_3x_{i1}x_{i2}+ \hat{w}_4x_{i1}^2+ \hat{w}_5x_{i2}^2 \qquad\qquad (2.3.6) y i ^ = w ^ 0 + w ^ 1 x i 1 + w ^ 2 x i 2 + w ^ 3 x i 1 x i 2 + w ^ 4 x i 1 2 + w ^ 5 x i 2 2 ( 2.3.6 )
同理,式(2.3.6)可变换为多元线性回归模型
y i ^ = w ^ 0 + w ^ 1 t i 1 + w ^ 2 t i 2 + w ^ 3 t i 3 + w ^ 4 t i 4 + w ^ 5 t i 5 ( 2.3.7 ) \hat{y_i} = \hat{w}_0+ \hat{w}_1t_{i1}+ \hat{w}_2t_{i2}+ \hat{w}_3t_{i3}+ \hat{w}_4t_{i4}+ \hat{w}_5t_{i5} \qquad\qquad (2.3.7) y i ^ = w ^ 0 + w ^ 1 t i 1 + w ^ 2 t i 2 + w ^ 3 t i 3 + w ^ 4 t i 4 + w ^ 5 t i 5 ( 2.3.7 )
其中 t i 1 = x i 1 , t i 2 = x i 2 , t i 3 = x i 1 x i 2 , t i 4 = x i 1 2 , t i 5 = x i 2 2 t_{i1}=x_{i1},t_{i2}=x_{i2},t_{i3}=x_{i1}x_{i2},t_{i4}=x_{i1}^2,t_{i5}=x_{i2}^2 t i 1 = x i 1 , t i 2 = x i 2 , t i 3 = x i 1 x i 2 , t i 4 = x i 1 2 , t i 5 = x i 2 2 。
因此可知其最优解为
w ^ ∗ = ( T T T ) − 1 T T y ( 2.3.8 ) \hat{w}^*=(T^TT)^{-1}T^Ty \qquad\qquad\qquad (2.3.8) w ^ ∗ = ( T T T ) − 1 T T y ( 2.3.8 )
其中 T = ( 1 t 11 t 12 t 13 t 14 t 15 1 t 21 t 22 t 23 t 24 t 25 ⋮ ⋮ ⋮ ⋮ ⋮ ⋮ 1 t m 1 t m 2 t m 3 t m 4 t m 5 ) = ( 1 x 11 x 12 x 11 x 12 x 11 2 x 12 2 1 x 21 x 22 x 21 x 22 x 21 2 x 22 2 ⋮ ⋮ ⋮ ⋮ ⋮ ⋮ 1 x m 1 x m 2 x m 1 x m 2 x m 1 2 x m 2 2 ) T= \begin{pmatrix} 1&t_{11}&t_{12}&t_{13}&t_{14}&t_{15}\\ 1&t_{21}&t_{22}&t_{23}&t_{24}&t_{25}\\ \vdots&\vdots&\vdots&\vdots&\vdots&\vdots \\ 1&t_{m1}&t_{m2}&t_{m3}&t_{m4}&t_{m5}\\ \end{pmatrix} = \begin{pmatrix} 1&x_{11}&x_{12}&x_{11}x_{12}&x_{11}^2&x_{12}^2\\ 1&x_{21}&x_{22}&x_{21}x_{22}&x_{21}^2&x_{22}^2\\ \vdots&\vdots&\vdots&\vdots&\vdots&\vdots \\ 1&x_{m1}&x_{m2}&x_{m1}x_{m2}&x_{m1}^2&x_{m2}^2\\ \end{pmatrix} T = ⎝ ⎛ 1 1 ⋮ 1 t 11 t 21 ⋮ t m 1 t 12 t 22 ⋮ t m 2 t 13 t 23 ⋮ t m 3 t 14 t 24 ⋮ t m 4 t 15 t 25 ⋮ t m 5 ⎠ ⎞ = ⎝ ⎛ 1 1 ⋮ 1 x 11 x 21 ⋮ x m 1 x 12 x 22 ⋮ x m 2 x 11 x 12 x 21 x 22 ⋮ x m 1 x m 2 x 11 2 x 21 2 ⋮ x m 1 2 x 12 2 x 22 2 ⋮ x m 2 2 ⎠ ⎞
该二元二阶多项式回归方程向量内积形式为
y ^ = ( 1 x k 1 x k 2 x k 1 x k 2 x k 1 2 x k 2 2 ) ⋅ ( w ^ 0 ∗ w ^ 1 ∗ w ^ 2 ∗ w ^ 3 ∗ w ^ 4 ∗ w ^ 5 ∗ ) = w ^ 0 ∗ + w ^ 1 ∗ x k 1 + w ^ 2 ∗ x k 2 + w ^ 3 ∗ x k 1 x k 2 + w ^ 4 ∗ x k 1 2 + w ^ 5 ∗ x k 2 2 ( 2.3.9 ) \hat{y}= \begin{pmatrix} 1&x_{k1}&{x_{ k2}}&x_{k1}x_{k2}&x_{k1}^2&x_{k2}^2\\ \end{pmatrix} \cdot \begin{pmatrix} \hat{w}_0^*&\hat{w}_1^*&\hat{w}_2^*&\hat{w}_3^*&\hat{w}_4^*&\hat{w}_5^*\\ \end{pmatrix}\\ \quad\\ = \hat{w}_0^* + \hat{w}_1^* x_{k1}+ \hat{w}_2^* x_{k2} + \hat{w}_3^*x_{k1}x_{k2} + \hat{w}_4^* x_{k1}^2 + \hat{w}_5^* x_{k2}^2 \qquad\quad (2.3.9) y ^ = ( 1 x k 1 x k 2 x k 1 x k 2 x k 1 2 x k 2 2 ) ⋅ ( w ^ 0 ∗ w ^ 1 ∗ w ^ 2 ∗ w ^ 3 ∗ w ^ 4 ∗ w ^ 5 ∗ ) = w ^ 0 ∗ + w ^ 1 ∗ x k 1 + w ^ 2 ∗ x k 2 + w ^ 3 ∗ x k 1 x k 2 + w ^ 4 ∗ x k 1 2 + w ^ 5 ∗ x k 2 2 ( 2.3.9 )
虽然多项式回归使用可能达到比线性回归更好的效果,但需要注意过拟合效应。
小结
假设形式
损失函数
适用 场景
线性回归
y = k x + b y=kx+b y = k x + b
L = ( y − X w ^ ) T ( y − X w ^ ) L=(y-X\hat{w})^T(y-X\hat{w}) L = ( y − X w ^ ) T ( y − X w ^ )
线性数据,特征数小于数据容量
Ridge回归
y = k x + b y=kx+b y = k x + b
L = ( y − X w ^ ) T ( y − X w ^ ) + λ ∥ w ^ ∥ 2 2 L=(y-X\hat{w})^T(y-X\hat{w}) +\lambda {\begin{Vmatrix} \hat{w} \end{Vmatrix}_2}^2 L = ( y − X w ^ ) T ( y − X w ^ ) + λ ∥ ∥ w ^ ∥ ∥ 2 2
线性数据,数据特征数量大,需要压缩,数据存在多重线性关系
多项式回归
y = a x 2 + b x + c y=ax^2+bx+c y = a x 2 + b x + c
L = ( y − X w ^ ) T ( y − X w ^ ) L=(y-X\hat{w})^T(y-X\hat{w}) L = ( y − X w ^ ) T ( y − X w ^ )
非线性数据