SPSS线性回归分析:基本原理
回归分析是统计学中的基本分析方法,一般用来解决以下问题:
第一,确定因变量与若干个因素变量之间联系的定量表达式,通常称为回归方程或数学模型,并确定它们联系的密切程度;
第二,通过控制可控变量的数值,借助于求出的数学模型来预测或控制因变量的取值和精度;
第三,进行因素分析,从影响变量变化的因素变量中寻找出哪些因素对因变量的影响最为显著,哪些因素的影响不那么显著,以区别重要因素和次要因素。
回归分析主要研究变量之间的线性关系,称为线性回归分析,线性回归分析是基于最小二乘法原理产生的古典统计假设下的统计分析方法,用来研究一个或多个自变量与一个因变量之间是否存在某种线性关系。如果引入回归分析的自变量只有一个,就是简单线性回归分析;如果引入回归分析的自变量有两个以上,就是多元线性回归分析,简单线性回归是多元线性回归的特例。
多元线性回归的一般数学模型是:
其中, x i 1 , x i 2 ,..., x ip 分别为第i次观测时自变量 x 1 , x 2 ,..., x p 的取值,Y i 为因变量Y的观测值。假定ε i (i=1,2,…,n)相互独立,且均服从同一正态分布 N (0, σ 2 ),2是未知参数,回归分析需要对模型中的未知参数 β 0 , β 1 ,..., β p 及2做出估计,并对建立的回归方程的参数和设定进行检验,对于通过检验的模型,我们可以用来解释现象并对未来进行预测。