如何使用SPSS进行线性回归分析(一):一元线性



如何使用SPSS进行线性回归分析(一):一元线性回归

2022-04-17 16:57 来源: 我看人看我

原标题:如何使用SPSS进行线性回归分析(一):一元线性回归

文章来源:微 信 公 众 号【我看人看我】,公 号回复【回归分析】获取SPSS案例数据

回归分析(regression analysis)即是要追本溯源,即追溯因变量的变化与哪些自变量的相关,如果因变量的变化与自变量的变化之间存在相关,那么自变量就可能(并不必然是)是因变量的原因。

相关是因果关系的必要条件,但是相关并不意味必然有因果关系,发现了相关性,只是说明在统计学意义上两个变量之间可能存在因果关系,之后还要探讨因果链条。回归分析既要考察两个变量是否共同变化,还要预先设定哪个变量是原因、哪个是结果。

一、回归分析与相关分析的区别

1. 回归分析是预设因果关系的相关分析

相关分析研究的都是随机变量,不预设变量之间有因果关系,不区分因变量和自变量;回归分析则预设变量之间有因果关系,区分因变量和自变量。回归分析是由此及彼,参照自变量的信息,来预测因变量的值。回归分析的目的是改进预测的准确度,把标志猜测误差总量的平方和减到最低程度。

回归分析的步骤,首先是要看因变量和自变量是否以及如何先后呼应(如果无法根据数据分辨事实上的时间先后,可以分辨逻辑次序的先后。逻辑次序的先后,即在特定场景下不能想象一个变量在时间上先于另一个变量,而需要有逻辑关系),这里的是和否,也就是“显著”和“不显著”,判断方法是显著性检验。如果确定有显著呼应,再看呼应程度的高低正负。

2. 回归分析量化了两个变量关系的本质

相关分析主要衡量了两个变量是否关联以及关联的密切程度,而回归分析不仅可以揭示变量之间的关系和影响程度,还可以根据回归模型进程预测。

二、回归分析的类型

回归分析主要包括线性回归及非线性回归,线性回归又分为简单线性回归、多元线性回归。非线性回归,需要通过对数转换等方式,转换为线性回归进行分析。

这次主要介绍线性回归分析,非线性回归后续有机会再做详细的分享。

三、简单线性回归分析的步骤

1. 根据预测目标,确定自变量和因变量

围绕业务问题和目标,从经验、常识、历史数据研究等,初步确定自变量和因变量。

2. 进行相关分析

(1)通过绘制散点图的方式,从图形化的角度初步判断自变量和因变量之间是否具有相关关系;

(2)通过皮尔逊相关系数r 值,判断自变量与因变量之间的相关程度和方向,才决定是否运用线性回归分析法来预测数值。如果r系数值很小,那么就不要用线性回归方程式来预测,因为这样所犯的错误会很大。

3. 估计回归模型参数,建立回归模型

采用最小二乘法进行模型参数的估计,建立回归模型。

(1)回归方程

简单线性回归方程:Y=bX+a

b称为回归系数,表示回归线的斜率,b值的大小,表示X对Y的影响有多少,即每增加一个单位的X值时,Y值的变化有多大。a 是截距,即回归线和Y轴的交点。

变量Y:称为响应变量或因变量

变量X:预测变量或自变量

根据回归方程画出来的直线即是回归直线

(2)拟合值和残差

数据一般不会准确地落在回归线上,因此在回归方程中,应该包括一个误差项e:Y=bX+a+e

残差值=预测值(即拟合值)-原始值

(3)最小二乘法

回归线是使残差值的平方和最小化的估计值。残差值的平方和也称为 残差平方和(RSS)。那么,使残差平方和(RSS)最小化的方法,即为最小二乘法回归,或称为 普通最小二乘法(OLS)回归。做最小二乘线性回归分析,即是用该回归分析方法,计算出的一个回归系数,使用这个系数,根据自变量的值猜测因变量的值,能最大程度地减小根据平均值做预测产生的误差。回归系数的正负情况告诉我们两个变量之间的变化关系是正方向还是反方向,绝对值大小则表明变化范围多大。

通过该最小二乘法求得的回归方程所画出来的线,可看作是最佳拟合线,是一条比其他拟合线更优的直线,所有点都更接近这条直线,即所有点与该条直线的平方和最小,因此最佳拟合线也称为最小平方线。

4. 对回归模型进行检验

(1)利用判定系数 R² 评估最佳拟合线预测的准确性




上一篇:大连金牛:重大资产重组 克隆大连圣亚
下一篇:明德生物董秘回复:公司目前主要销售的设备有:实时荧光定量PCR仪QPT1000、全自动核酸提取纯化仪MD-NAE32、全