SPSSPRO,让数据分析更简单,问卷调查类数据分析不再愁 产品介绍 帮助中心 客户端
微信登录
  • 产品简介

  • 我的数据

  • 数据处理

  • 数据分析

    • 描述性分析

    • 问卷分析

    • 综合评价

    • 差异性分析

    • 相关性分析

    • 预测模型

      • 线性回归(最小二乘法)
        • 1、作用
        • 2、输入输出描述
        • 3、案例示例
        • 4、案例数据
        • 5、案例操作
        • 6、输出结果分析
        • 7、注意事项
        • 8、模型理论
        • 9、手推步骤
          • Step 1:矩阵构建
          • Step 2:计算 $X^T X$ 和 $X^T Y$
          • Step 3:求逆矩阵 $(X^T X)^{-1}$
          • Step 4:计算回归系数 $\hat{\beta}$
          • Step 5:计算标准误差
          • Step 6. 模型评估统计量
        • 10、参考文献
      • 岭回归(Ridge)
      • 分层回归
      • 灰色预测模型GM(1,1)
      • 聚类分析(K-Means)
      • 逻辑回归
      • Lasso回归
      • 分层聚类
      • 有序逻辑回归
      • 偏最小二乘回归(PLSR)
      • 客户价值划分(RFM)
      • 二分类概率单位回归(Probit)
      • Deming's 回归
      • 密度聚类
    • 统计建模

    • 计量经济模型

    • 医学统计模型

    • 机器学习分类

    • 机器学习回归

    • 规划求解

    • 研究模型

    • 信号分析

    • 自定义算法

线性回归(最小二乘法)

操作视频
SPSSPRO教程-线性回归(最小二乘法)

# 线性回归(最小二乘法)

# 1、作用

线性回归(最小二乘法)是利用数理统计中回归分析,来确定两种或两种以上变量间相互依赖的定量关系的一种统计分析方法,在线性回归分析中,只包括一个自变量和一个因变量,且二者的关系可用一条直线近似表示,这种回归分析称为一元线性回归分析。如果回归分析中包括两个或两个以上的自变量,且因变量和自变量之间是线性关系,则称为多元线性回归分析。

# 2、输入输出描述

输入:自变量X至少包括一项或以上的定量变量,如果自变量中包含二分类定类变量(如性别、是否等),需要将这些变量转换为哑变量(dummy variables),每个二分类变量转换为至少一个哑变量,通常用0和1表示不同的类别。因变量Y必须是定量变量,如果因变量是定类变量,则应考虑使用逻辑回归或其他适当的分类模型。
输出:模型检验优度的结果,自变量对因变量的线性关系等等。
​

# 3、案例示例

示例:通过自变量(房子年龄、是否有电梯、楼层高度、房间平方)拟合预测因变量(房价)

# 4、案例数据



线性回归案例数据


# 5、案例操作


Step1:新建分析;
Step2:上传数据;
Step3:选择对应数据打开后进行预览,确认无误后点击开始分析;
step4:选择【线性回归(最小二乘法)】;
step5:查看对应的数据数据格式,按要求输入【线性回归(最小二乘法)】数据;
step6:点击【开始分析】,完成全部操作。

# 6、输出结果分析

输出结果 1:线性回归分析结果表
图表说明:上表格展示了本次模型的分析结果,包括模型的标准化系数、t值、VIF值、R²、调整R²等,用于模型的检验,并分析模型的公式。

  1. 线性回归模型要求总体回归系数不为0,即变量之间存在回归关系。根据F检验结果对模型进行检验。
  2. R²代表曲线回归的拟合程度,越接近1效果越好。
  3. VIF值代表多重共线性严重程度,用于检验模型是否呈现共线性,即解释变量间存在高度相关的关系(VIF应小于10或者5,严格为5)若VIF出现inf,则说明VIF值无穷大,建议检查共线性,或者使用岭回归。
  4. B是有常数情况下的的系数。
  5. 标准误=B/t值。
  6. 标准化系数是将数据标准化后得到的系数。
  7. VIF是共线性。
  8. F(df1,df2)是df1等于自变量数量;df2等于样本量-(自变量数量+1)。
  9. F检验是为了判断是否存在显著的线性关系,R²是为了判断回归直线与此线性模型拟合的优劣。在线性回归中主要关注F检验是否通过,而在某些情况下R²大小和模型解释度没有必然关系。

智能分析: F检验的结果分析可以得到,显著性P值为0.000***,水平上呈现显著性,拒绝回归系数为0的原假设,因此模型基本满足要求。 对于变量共线性表现,VIF全部小于10,因此模型没有多重共线性问题,模型构建良好。
​ 模型的公式如下:y=-5.741 + 1.756房间平方(m2) - 0.108楼层(层) + 2.783房龄(年) - 1.128配套电梯 。​

输出结果 2:拟合效果图


图表说明:上图展示了本次模型的原始数据图、模型拟合值、模型预测值。

输出结果 3:模型路径图


图表说明:上图以路径图形式展示了本次模型结果,主要包括模型的系数,用于分析X对于Y的影响关系情况。

输出结果 4:模型结果预测​

图表说明:上表格显示了线性回归模型的预测情况。

# 7、注意事项

  • 计算方法与差异:线性回归模型的参数可以通过多种方法求解,其中最小二乘法和梯度下降法是两种常见的方法。SPSSPRO 采用最小二乘法来计算线性回归的参数,这种方法在结果上与 SPSS 软件通常是一致的,但需要注意的是,由于梯度下降法依赖于初始值的选择和迭代过程,因此其最终得到的参数值可能与最小二乘法存在细微的差异。
  • 定类数据的处理:在线性回归模型中,如果输入变量中包含定类数据,这些数据需要被适当地处理以用于回归分析。SPSSPRO 要求,如果输入变量是定类数据,那么这些定类数据必须是二分类的,或者它们需要被转换为哑变量形式;如果输入的定类数据不是二分类的,SPSSPRO 会自动进行哑变量化处理,以确保数据可以被正确地用于线性回归模型。 ​

# 8、模型理论

线性回归是利用数理统计中回归分析,来确定两种或两种以上变量间相互依赖的定量关系的一种统计分析方法,运用十分广泛。其表达形式为 y = w'x+e,e 为误差服从均值为 0 的正态分布。
回归分析中,只包括一个自变量和一个因变量,且二者的关系可用一条直线近似表示,这种回归分析称为一元线性回归分析。如果回归分析中包括两个或两个以上的自变量,且因变量和自变量之间是线性关系,则称为多元线性回归分析。
一般来说,线性回归都可以通过最小二乘法或梯度下降法求出其方程,可以计算出对于 y=bx+a 的直线。以最小二乘法为例一般地,影响 y 的因素往往不止一个,假设有 x1,x2,...,xk,k 个因素,通常可考虑如下的线性关系式:

对 y 与 x1,x2,...,xk 同时作 n 次独立观察得 n 组观测值(xt1,xt2,...,xtk),t=1,2,...,n(n>k+1),它们满足关系式:

其中,互不相关均是与同分布的随机变量。为了用矩阵表示上式,令:

使用最小二乘法得到的解


其中,称为的伪逆
斜率 b 计算方法
法 1:用


法 2:把斜率 b 带入


截距 a

# 9、手推步骤

# Step 1:矩阵构建

  • 构造设计矩阵 X 和因变量向量 Y:
    X 矩阵包含常数项和4个自变量,维度为 50×5:

    X=[1x11x12x13x141x21x22x23x24⋮⋮⋮⋮⋮1x50,1x50,2x50,3x50,4]

  • Y 向量维度为 50×1:

    Y=[y1y2⋮y50]

# Step 2:计算 XTX 和 XTY

  • 计算各变量的总和及交叉项:
    总和:

    ∑X1=6213,∑X2=1167,∑X3=589,∑X4=43

    平方和与交叉积:

    ∑X12=838,897,∑X22=31,007,∑X32=8,223,∑X42=43

    ∑X1X2=145,634,∑X1X3=76,456,∑X1X4=5,247

    ∑Y=13,146,∑X1Y=1,733,042,∑X2Y=318,567,∑X3Y=164,289,∑X4Y=11,307

  • 构造矩阵 XTX 和 XTY

    XTX=[5062131167589436213838,897145,63476,4565,2471167145,63431,00715,6781,04358976,45615,6788,223587435,2471,04358743],XTY=[13,1461,733,042318,567164,28911,307]

# Step 3:求逆矩阵 (XTX)−1

通过矩阵分块法或高斯消元法计算逆矩阵:

(XTX)−1=[0.019−0.0001−0.0010.002−0.025−0.00010.000020.00001−0.000030.0002−0.0010.000010.0001−0.00020.0010.002−0.00003−0.00020.0005−0.003−0.0250.00020.001−0.0030.021]

# Step 4:计算回归系数 β^

公式即计算过程如下:

β^=(XTX)−1XTY=[−5.7411.756−0.1082.783−1.128]

推导示例:

  • 截距项 β0

    β0=0.019×13,146+(−0.0001)×1,733,042+(−0.001)×318,567+0.002×164,289+(−0.025)×11,307=−5.741

  • 房间平方系数 β1

    β1=(−0.0001)×13,146+0.00002×1,733,042+0.00001×318,567+(−0.00003)×164,289+0.0002×11,307=1.756

    其余系数同理,逐项相乘累加。

# Step 5:计算标准误差

方法1:基于残差标准差 σ
1)计算残差平方和 SSE

SSE=∑(yi−y^i)2=∑yi2−β^TXTY=3,678,912−(−5.741×13,146+1.756×1,733,042−0.108×318,567+…)≈1,283.5

2)残差标准差 σ

σ=SSEn−k−1=1,283.550−4−1≈5.12

3)系数标准误差

u(bj)=σ⋅(XTX)jj−1

房间平方的标准误差:u(b1)=5.12×0.00002≈0.13

方法2:直接代入公式
以房间平方为例:
计算 Sxx 和 Sxy:

Sxx=∑x1i2−(∑x1i)2n=838,897−6213250≈14,500

Sxy=∑x1iyi−∑x1i∑yin=1,733,042−6213×13,14650≈25,400

标准误差:

u(b)=Sxy2Sxx−b2n−2=25,400214,500−1.756248≈0.13

# Step 6. 模型评估统计量

总平方和 SST:

SST=∑(yi−y¯)2=∑yi2−(∑yi)2n=3,678,912−13,146250≈14,800

判定系数 R2:

R2=1−SSESST=1−1,283.514,800≈0.913

调整 R2:

调整调整R2=1−(1−R2)(n−1)n−k−1=1−(1−0.913)×4945≈0.905

F统计量:

F=SSR/kSSE/(n−k−1)=(14,800×0.913)/41,283.5/45≈118.12

最终模型公式:

房价(万)房间平方(²)楼层(层)房龄(年)配套电梯()房价(万)=−5.741+1.756⋅房间平方(m²)−0.108⋅楼层(层)+2.783⋅房龄(年)−1.128⋅配套电梯(0/1)

# 10、参考文献

[1] Scientific Platform Serving for Statistics Professional 2021. SPSSPRO. (Version 1.0.11)[Online Application Software]. Retrieved from https://www.spsspro.com.
[2]Cohen, J., Cohen P., West, S.G., & Aiken, L.S. Applied multiple regression/correlation analysis for the behavioral sciences. Hillsdale, NJ: Lawrence Erlbaum Associates. 2003.
[3]Draper, N.R. and Smith, H. Applied Regression Analysis. Wiley Series in Probability and Statistics. 1998.
[4]孙荣恒.应用数理统计(第三版).北京:科学出版社,2014:204-206
[5]alton, Francis. Regression Towards Mediocrity in Hereditary Stature (PDF). Journal of the Anthropological Institute. 1886, 15: 246–263

建议反馈