范文一:多元线性回归的计算方法
多元线性回归的计算方法 摘要
在实际经济问题中,一个变量往往受到多个变量的影响。例如,家庭
消费支出,除了受家庭可支配收入的影响外,还受诸如家庭所有的财富、物价水平、金融机构存款利息等多种因素的影响,表现在线性回归模型中的解释变量有多个。这样的模型被称为多元线性回归模型。
多元线性回归的基本原理和基本计算过程与一元线性回归相同,但由
于自变量个数多,计算相当麻烦,一般在实际中应用时都要借助统计软件。这里只介绍多元线性回归的一些基本问题。
但由于各个自变量的单位可能不一样,比如说一个消费水平的关系式中,工资水平、受教育程度、职业、地区、家庭负担等等因素都会影响到消费水平,而这些影响因素(自变量)的单位显然是不同的,因此自变量前系数的大小并不能说明该因素的重要程度,更简单地来说,同样工资收入,如果用元为单位就比用百元为单位所得的回归系数要小,但是工资水平对消费的影响程度并没有变,所以得想办法将各个自变量化到统一的单位上来。前面学到的标准分就有这个功能,具体到这里来说,就是将所有变量包括因变量都先转化为标准分,再进行线性回归,此时得到的回归系数就能反映对应自变量的重要程度。这时的回归方程称为标准回归方程,回归系数称为标准回归系数,表示如下:
Zy=β1Zx1+β2Zx2+…+βkZxk
注意,由于都化成了标准分,所以就不再有常数项a 了,因为各自变量都取平均水平时,因变量也应该取平均水平,而平均水平正好对应标准分0,当等式两端的变量都取0时,常数项也就为0了。
多元线性回归模型的建立
多元线性回归模型的一般形式为
Yi=β0+β1X1i+β2X2i+…+βi x i h i +υi =1,2,…,n
其中 k为解释变量的数目,βj =(j=1,2,…,k)称为回归系数
(regression coefficient)。上式也被称为总体回归函数的随机表达式。它的非随机表达式为
E(Y∣X1i,X2i,…Xki,)=β0+β1X1i+β2X2i+…+βkXki
βj 也被称为偏回归系数(partial regression coefficient) 多元线性回归的计算模型
1
一元线性回归是一个主要影响因素作为自变量来解释因变量的变化,在现实问题研究中,因变量的变化往往受几个重要因素的影响,此时就需要用两个或两个以上的影响因素作为自变量来解释因变量的变化,这就是多元回归亦称多重回归。当多个自变量与因变量之间是线性关系时,所进行的回归分析就是多元性回归。 设y 为因变量X1,X2…Xk为自变量,并且自变量与因变量之间为线性关系时,则多元线性回归模型为:
Y=b0+b1x1+…+bkxk+e
其中,b 0为常数项X1,X2…Xk 为回归系数,b 1为X1,X2…Xk固定时,x 1每增加一个单位对y 的效应,即x 1对y 的偏回归系数;同理b 2为
X1,X2…Xk固定时,x 2每增加一个单位对y 的效应,即,x 2对y 的偏回归系数,等等。如果两个自变量x 1, x 2同一个因变量y 呈线相关时,可用二元线性回归模型描述为:
Y=b0+b1x1+…+bkxk+e
其中,b 0为常数项,X1,X2…Xk为回归系数,b 1为X1,X2…Xk固定时,x 2每增加一个单位对y 的效应,即x 2对y 的偏回归系数,等等。如果两个自变量x 1, x 2同一个因变量y 呈线相关时,可用二元线性回归模型描述为: y = b 0 + b 1x 1 + b 2x 2 + e
建立多元性回归模型时,为了保证回归模型具有优良的解释能力和预测效果,应首先注意自变量的选择,其准则是:
(1)自变量对因变量必须有显著的影响,并呈密切的线性相关;
(2)自变量与因变量之间的线性相关必须是真实的,而不是形式上的;
(3)自变量之彰应具有一定的互斥性,即自变量之彰的相关程度不应高于自变量与因变量之因的相关程度;
(4)自变量应具有完整的统计数据,其预测值容易确定。
多元性回归模型的参数估计,同一元线性回归方程一样,也是在要求误差平方和(Σe) 为最小的前提下,用最小二乘法求解参数。以二线性回归模型为例,求解回归参数的标准方程组为
解此方程可求得b 0, b 1, b 2的数值。亦可用下列矩阵法求得
即
2
多元线性回归分析预测法
多元回归分析预测法,是指通过对两上或两个以上的自变量与一个因变量的相关分析,建立预测模型进行预测的方法。当自变量与因变量之间存在线性关系时,称为多元线性回归分析。
多元线性回归模型的检验
多元线性回归模型与一元线性回归模型一样,在计算出回归模型之后,要对模型进行各种检验。
多元线性回归模型的检验方法有:判定系数检验(R 检验),回归系数显着性检验(T 检验),回归方程显着性检验(F 检验)。
1、判定系数检验。多元线性回归模型判定系数的定义与一元线性回归分析类似。判定系数R 的计算公式为: R = R 接近于1表明Y 与X1, X2 ,…, Xk 之间的线性关系程度密切;R 接近于0表明Y 与X1, X2 ,…, Xk之间的线性关系程度不密切。
2、回归系数显着性检验。在多元回归分析中,回归系数显着性检验是检验模型中每个自变量与因变量之间的线性关系是否显着。显着性检验是通过计算各回归系数的t 检验值进行的。回归系数的t 检验值 的计算公式为:= (j = 1,2,…,k ),式中 是回归系数 的标准差。在多元回归模型中,某个变量回归系数的t 检验没有通过,说明该变量与因变量之间不存在显着的线性相关关系,在回归分析时就可以将该变量删去,或者根据情况作适当的调整,而后用剩下的自变量再进行回归分析。
3、回归方程的显着性检验。回归方程的显着性检验是检验所有自变量作为一个整体与因变量之间是否有显着的线性相关关系。显着性检验是通过F 检验进行的。F 检验值的计算公式是:F (k ,n -k -1)= 多元回归方程的显着性检验与一元回归方程类似,在此也不再赘述。回归方程的显着性检验未通过可能是选择自变量时漏掉了重要的影响因素,或者是自变量与因变量间的关系是非线性的,应重新建立预测模型。
多元线性回归预测模型的公式
多元线性回归预测模型一般公式为:
多元线性回归模型中最简单的是只有两个自变量(n=2)的二元线性回归模型,其一般形式为:
3
下面以二元线性回归分析预测法为例,说明多元线性回归分析预测法的应用。
二元线性回归分析预测法,是根据两上自变量与一个因变量相关关系进行预测的方法。二元线性回归方程的公式为:
式中::因变量;
x1,x2:两个不同自变量,即与因变量有紧密联系的影响因素。 a ,b1,b2:是线性回归方程的参数。
a ,b1,b2是通过解下列的方程组来得到。
(2)
多元线性回归模型预测的精准度
多元线性回归模型表示一种地理现象与另外多种地理现象的依存关系,这时另外多种地理现象共同对一种地理现象产生影响,作为影响其分布与发展的重要因素。
设变量Y 与变量X1,X2,…,Xm 存在着线性回归关系,它的n 个样本观测值为Yj,Xj1,Xj2,…Xjm (j=1,2,n) 。
可采用最小二乘法对上式中的待估回归系数β0,β1,…,βm 进行估计,求得β值后,即可利用多元线性回归模型进行预测了。
计算了多元线性回归方程之后,为了将它用于解决实际预测问题,还必须进行数学检验。多元线性回归分析的数学检验,包括回归方程和回归系数的显著性检验。
多元线性回归模型的精度,可以利用剩余标准差来衡量。S 越小,则用回归方程预测Y 越精确;反之亦然。
总结
多元线性回归模型因为其操作简单方便,预测能到达一定精准度,已经在我国的社会科学、自然科学的各个领域发挥了巨大作用。该模型还可以应用于经济学、生物学、心理学、医疗卫生、体育、农业、林业、商业、金融等各个领域。
4
范文二:多元线性回归的计算模型
[1]多元线性回归的计算模型
一元线性回归是一个主要影响因素作为自变量来解释因变量的变化,在现实问题研究中,因变量的变化往往受几个重要因素的影响,此时就需要用两个或两个以上的影响因素作为自变量来解释因变量的变化,这就是多元回归亦称多重回归。当多个自变量与因变量之间是线性关系时,所进行的回归分析就是多元性回归。
设y为因变量,为自变量,并且自变量与因变量之间为线性关系时,则多元线性回归模型为:
其中,b为常数项,为回归系数,b为固定时,x每增加一011个单位对y的效应,即x对y的偏回归系数;同理b为固定时,x每增加一122个单位对y的效应,即,x对y的偏回归系数,等等。如果两个自变量x,x同一个因变量y呈线212
相关时,可用二元线性回归模型描述为:
其中,b为常数项,为回归系数,b为固定时,x每增加012一个单位对y的效应,即x对y的偏回归系数,等等。如果两个自变量x,x同一个因变量y呈212
线相关时,可用二元线性回归模型描述为:
y = b + bx + bx + e 01122
建立多元性回归模型时,为了保证回归模型具有优良的解释能力和预测效果,应首先注意自变量的选择,其准则是:
(1)自变量对因变量必须有显著的影响,并呈密切的线性相关;
(2)自变量与因变量之间的线性相关必须是真实的,而不是形式上的;
(3)自变量之彰应具有一定的互斥性,即自变量之彰的相关程度不应高于自变量与因变量之因的相关程度;
(4)自变量应具有完整的统计数据,其预测值容易确定。
多元性回归模型的参数估计,同一元线性回归方程一样,也是在要求误差平方和()为最小的前提下,用最小二乘法求解参数。以二线性回归模型为例,求解回归参数的标准方程组为
解此方程可求得b,b,b的数值。亦可用下列矩阵法求得 012
即
[编辑]
[1]多元线性回归模型的检验
多元性回归模型与一元线性回归模型一样,在得到参数的最小二乘法的估计值之后,也需要进行必要的检验与评价,以决定模型是否可以应用。
1、拟合程度的测定。
22 与一元线性回归中可决系数r相对应,多元线性回归中也有多重可决系数r,它是在因变量
2的总变化中,由回归方程解释的变动(回归平方和)所占的比重,R越大,回归方各对样本数据点拟合的程度越强,所有自变量与因变量的关系越密切。计算公式为:
其中,
2.估计标准误差
估计标准误差,即因变量y的实际值与回归方程求出的估计值之间的标准误差,估计标准误差越小,回归方程拟合程度越程。
其中,k为多元线性回归方程中的自变量的个数。
3.回归方程的显著性检验
回归方程的显著性检验,即检验整个回归方程的显著性,或者说评价所有自变量与因变量的线性关系是否密切。能常采用F检验,F统计量的计算公式为:
根据给定的显著水平a,自由度(k,n-k-1)查F分布表,得到相应的临界值F,若F > F,则回aa归方程具有显著意义,回归效果显著;F < f,则回归方程无显著意义,回归效果不显著。="">
4.回归系数的显著性检验
在一元线性回归中,回归系数显著性检验(t检验)与回归方程的显著性检验(F检验)是等价的,但在多元线性回归中,这个等价不成立。t检验是分别检验回归模型中各个回归系数是否具有显著性,以便使模型中只保留那些对因变量有显著影响的因素。检验时先计算统计量t;然后i根据给定的显著水平a,自由度n-k-1查t分布表,得临界值t或t,t > t ? a或t,则回归系数aa / 2a / 2b与0有显著关异,反之,则与0无显著差异。统计量t的计算公式为: i
? 1 其中,C是多元线性回归方程中求解回归系数矩阵的逆矩阵(x'x)的主对角线上的第j个元ij
素。对二元线性回归而言,可用下列公式计算:
其中,
5.多重共线性判别
若某个回归系数的t检验通不过,可能是这个系数相对应的自变量对因变量的影平不显著所致,此时,应从回归模型中剔除这个自变量,重新建立更为简单的回归模型或更换自变量。也可能是自变量之间有共线性所致,此时应设法降低共线性的影响。
多重共线性是指在多元线性回归方程中,自变量之彰有较强的线性关系,这种关系若超过了因变量与自变量的线性关系,则回归模型的稳定性受到破坏,回归系数估计不准确。需要指出的是,在多元回归模型中,多重共线性的难以避免的,只要多重共线性不太严重就行了。判别多元
22线性回归方程是否存在严惩的多重共线性,可分别计算每两个自变量之间的可决系数r,若r > 2R或接近于R,则应设法降低多重线性的影响。亦可计算自变量间的相关系数矩阵的特征值的2
条件数k = λ / λ(λ为最大特征值,λ为最小特征值),k<>
100?k?1000,则自变量间存在较强的多重共线性,若k>1000,则自变量间存在严重的多重共
线性。降低多重共线性的办法主要是转换自变量的取值,如变绝对数为相对数或平均数,或者更换其他的自变量。
6.D.W检验
当回归模型是根据动态数据建立的,则误差项e也是一个时间序列,若误差序列诸项之间相互独立,则误差序列各项之间没有相关关系,若误差序列之间存在密切的相关关系,则建立的回归模型就不能表述自变量与因变量之间的真实变动关系。D.W检验就是误差序列的自相关检验。检验的方法与一元线性回归相同。
[编辑]
多元线性回归分析预测法案例分析
范文三:多元线性回归的计算方法
多元线性回归的计算方法
2011级数学基地班 杨万玺 1142012036
摘要:
回归分析是处理变量间相关关系的一种有效的统计方法。分为一元与多元两大类,通过观测数据,寻找某些指标与变量间关系,当假设满足线性关系时,就使用线性回归方法建立模型,反应与预测未来趋势。
关键词:多元线性回归 数学模型 检验
正文:
一、多元线性回归模型建立
设因变量Y 与自变量X 1,X 2,X m 线性相关,n 次观测数据:
y i ; x i 1, x i 2, , x im (i =1m )满足以下多元线性回归模型:
?y 1=β0+β1x 11+???y =β+βx +0111?n +βm x 1m β+ε1(1.1) +βm x nm β+
εn
其中εi (i=1…n )是观测误差,一般假定ε1N (0,σ2) ,且互相独立。记
?y 1??1x 11 ? Y = ?, X = n ?1n ?(m +1) y ? 1x n 1?m ??则(1.1)可以写成矩阵形式: ?β0?x 1m ??ε1? ?? β1?, ε= ? β=,?(m +1) ?1 ?n ?1 ? ε?x nm ? ???n ??βm ?
?Y =X β+ε ? 2?E (ε) =0, COV (ε, ε) =σI n
为高斯—马尔柯夫线性模型(多元线性回归模型) ,并简记为(Y , X β, σ2I n )
二、模型参数估计
2.1 参数β的最小二乘估计
有n 组独立观测值,(x 1,y 1),(x 2,y 2),…,(x n ,y n )
设 ??y i =β0+βx 1+εi , i =1, 2,..., n
..., εn 相互独立?E εi =0, D εi =σ 且ε1ε2,
n 2
i n 2 记 Q =Q (β0, β1) =2()ε=y -β-βx ∑∑i 01i
i =1i =1
?,β?使得 最小二乘法就是选择β0和β1的估计β10
?, β?) =min Q (β, β) Q (β0101β0, β1
?=-β??β01??=解得 ?或 β1xy -x y ?β=?1x 2-2?∑(x i =1n n i -)(y i -) i ∑(x
i =1-)2
1n 1n 1n 21n 2其中=∑x i , =∑y i ,x =∑x i , xy =∑x i y i . n i =1n i =1n i =1n i =1
?+β?x =+β?(x -) ?=β(经验)回归方程为: y 011
2.2 参数σ2的无偏估计
?, β?) =记 Q e =Q (β01∑(y n
i =1i ?-β?x -β01i )=∑(y 2n i =1i ?i ) 2 -y
称Q e 为残差平方和或剩余平方和.
2?e σ2的无偏估计为 σ=Q e (n -2)
2?、β?独立 。 ?e 2为剩余方差(残差的方差)?e 称σ, σ分别与β10
?e 称为剩余标准差. σ
三、模型检验、预测、控制
3.1 回归方程的显著性检验
对回归方程Y =β0+β1x 的显著性检验,归结为对假设
H 0:β1=0; H 1:β1≠0
进行检验.
假设 被拒绝,则回归显著,认为y 与x 存在线性关系,所求的线性回归方程有意义;否则回归不显著,y 与x 的关系不能用一元线性回归模型来描述,所得的回归方程也无意义。
用F 方法、T 方法、R 方法判断是否接受假设。
3.2 回归系数的置信区间
1、β0和β1置信水平为1-α的置信区间分别为
22??11?-t (n -2) σ?+t (n -2) σ?e ?e +, β+ ?β? 0α0α1-1-n L n L ?xx xx ?22??
??????和 ?β1-t α(n -2) σe /L xx , β1+t α(n -2) σe /L xx ? 1-1-22??
2、σ2的置信水平为1-α的置信区间为 ??Q e Q ?? ?2, 2e ? χ(n -2) χ(n -2) α?1-α?2?2?
3.3 预测、控制
?+β?x 作为y 0的预测值 ?0=β 预测:用y 0的回归值y 010
?0-δ(x 0) , ?y 0y 0的置信水平为 1-α 的预测区间为 [y +δ(x 0] )
1x -?e t α(n -2) ++0其中δ(x 0) =σ 1-n L xx 22
特别,当n 很大且x 0在附近取值时, y 的置信水平为1-α的预测区间近似为
???-σ?e u α, y ?+σ?e u α? ?y 1-1-22??
控制:要求:y =β0+β1x +ε的值以1-α的概率落在指定区间(y ', y '')
?-δ(x ) ≥y ', y ?+δ(x ) ≤y '' 只要控制x 满足以下两个不等式y
要求:y =β0+β1x +ε的值以1-α的概率落在指定区间(y ', y ''),则(x ', x '')就是所求的x 的控制区。
范文四:多元线性回归预测
多元线性回归预测
在预测中, 当预测对象 y 受到多个因素 m x x x , , , 21 影响时, 如果各个影响因 素 j x (m j , , 2, 1 =)与 y 的相关关系可以同时近似地线性表示,这时则可以建 立多元线性回归模型来进行分析和预测。
假定因变量 y 与自变量 ) , , 2, 1(m j x j =之间的关系可表示为
i mi m i i i x b x b x b b y ε+++++= 22110
(2-22)
n i , , 2, 1 =(样本序号)
其中 0b 、 j b ) , , 2, 1(m j =——模型回归系数; i ε为除自变量 j x ) , , 2, 1(m j =的 影响之外对 i y 产生影响的随机变量,即随机误差。该结论基于以下的假设:
随机误差 i ε的期望值为零, ) , , 2, 1(0) (n i E i ==ε; 方差的期望值为一常数 2σ, ) , , 2, 1() (22n i E i ==σε;
各随机误差项是互不相关的,即协方差的数学期望值为零, 0) , (=j i E εε
) , , , 2, 1, (j i n j i ≠=
当以上假设得到满足时,式(2-22)便称为多元线性回归预测模型,这时可 写成
) , , 2, 1(?22110n i x b x b x b b y
mi m i i i =?++++=
(2-23)
和一元线性回归预测模型一样, 多元线性回归预测模型建立时也采用最小二
二乘法估计模型参数,但具体估计时有二种算法,分述如下。
一、多元线性回归预测模型的一般算法 1.建立模型 改写式(2-22) 得
) , , 2, 1(?n i y
y i i i =-=ε
方差和 Q 为
2
1
221102212) () ?(mi m n
i i i i
n i i i
n
i i
x b x b x b b y
y
y Q -----=
-==∑∑∑=== ε
根据最小二乘法原理,欲估计参数 ) , , 2, 1(m i b i =,要满足条件:
??????
?????=------=??=------=??=------=??0) (Σ20) (Σ20) (Σ2221102211011
221100mi m i i i mi m
mi m i i i i mi m i i i x b x b x b b y x b Q
x b x b x b b y x b Q
x b x b x b b y b Q
整理上式可得到:
??
????
?=++++=++++=++++i mi mi m i mi i mi mi i
i mi i m i i t i i mi m i i y
x x b x x b x x b x b y x x x b x x b x b x b y x b x b x b nb ΣΣΣΣΣΣΣΣΣΣΣΣΣΣ222110
112122
111022, 110 而对于各变量的样本平均值,其误差平方和为:
???
?
?
?
???
-=--==--==∑∑∑===n i i yy n
i i j ji yj jy n
i k ki j ji kj jk y s y x s s x x s s 12
11
)
() )(()
)((
(2-25)
) , , 2, 1, (k k j =
式中
∑==
n
i ji
j x n
1
1
∑==
n
i i
y
n
1
1
利用(2-24)式,将方程组(2-25)可改写为
?????
?
?=+++=+++=+++my mm m m m y
m m y m m s
s b s b s b s s b s b s b s s b s b s b
221
12222221211122111 (2-26)
以及 m m b b b b ----= 22110 (2-17)
方程组 (2-26) 叫正规方程组或规范方程式, 解该方程组, 则得到回归系数 0b ,
1b , 2b ,…, m b 。即为用最小二乘法原理估计的多元线性预测模型(2-23)的
回归系数。 从原理上讲, 按上述解法, 对任意多个自变量的线性回归模型都可估
计参数, 但由于变量较多时计算工作量大, 当自变量大于 3个时, 手工计算已很 困难,宜用矩阵解法在计算机上计算。
如二元线性回归预测模型。 有正规方程为
????
?=+=+y y
s b b b s s b s b s 22221
211212111 解该方程组,
有
12
21221112222122
21
12112221211s s s s s s s s s s s s s s s s b y y y y
--=
=
(2-28)
同理
12
2122112111122s s s s s s s s b y y --=
(2-29) 22110b b b --=
(2-30)
式中
????
???
??
???
?
???
??
?-=--=-=--=-=-=-=--==-=-=)
)(Σ(Σ1Σ) )((Σ)
)(Σ(Σ1Σ) )((Σ) (Σ1Σ) (Σ) )(Σ(Σ1
Σ) () (Σ) (Σ1Σ) (Σ2222211111222222222212122112112212
121111
i i i i i i y i i i i i i y i i
i i i i i i i i i i y x n y x y x s y x n y x y x s x n x x s x x n x x x x s s x n
x x s (2-31)
2.统计检验
(1)剩余标准差计算 1
) ?(Σ2---=
m n y y s i i (2-3
2)
m ——自变量个数
为了方便统计检验,先计算离差计算表。
(2)相关系数检验
2
22
) (Σ) ?(Σ1y y y R i i i ---= (2-33)
(3) F 检验 2
2
) ?(s m y F i ?-∑=
(2-34)
(4) t 检验
t 检验是通过对回归系数 ) , , 2, 1(m i b i =的逐一检验, 以判断 ) , , 2, 1(m i x i =是否因系数 i b 为零而必须予以删除。
i
i bi s b t =
(2-35)
然后设定显著性水平 a ,查 t 分布表,取自由度 1--=m n v ,得到 t 检验值 2/a t 。
当 2/a bi t t ≥时,检验通过。
当 2/a bi t t <时,说明所选自变量 i="" x="" 对="" y="" 影响不显著,或者自变量间存在多重="">时,说明所选自变量>
设 bi s 为回归系数的标准差
bi s 按下列公式计算: s c s ii bi ?=
(2-36)
式中:ii c ——正规方程系数矩阵 ε的逆矩阵 c 中的 i 行 i 列元素。 按照伴随矩阵求逆矩阵的方法,其逆矩阵
??
?
???--==-112112221
||1s s s s s s
c 因为 22212211||s s s s s -=
所以有
?????
?
???
???------=1221221111122112112112
212211121221221122s s s s s s s s s s s s s s s s s s s s c (2-37)
在多元线性回归预测中, F 检验是判断全部自变量的整体作用与因变量的线 性关系是否显著, 而 t 检验则是检验每一个自变量与因变量的线性关系是否显著。 所以,在多元线性回归预测中, t 检验比 F 检验更有必要。因为根据 t 检验的结 果, 可以判断那些对因变量线性关系不显著的自变量, 从而予以剔除, 重新建立 回归模型。
(5) DW 检验
多元线性回归 DW 检验和一元线性回归预测一样按(2-18)式计算
(6)预测区间的确定
按照正态分布理论,当置信度为 95%时,预测区间为
上限 s y y
H 2??0+= 下限
s y y
L 2??0-= (2-38) 对于某组自变量的取值为 10x , 20x ,…, 0m x ,代入上式,则可求得该预测区间
为(H L y y ?, ?) 。
二、多元线性回归方程的矩阵解法 1.建立预测模型
当已知 n 组自变量 ) , , 2, 1(m j x j =和因变量 y 的观测值时, (2-22) 式可用矩 阵形式写成
U XB Y +=
(2-39)
式中
?
?
??
?
?
?
???
??=
??????
??????=
mn n n m m n x x x x x x x x x y y y 212
221212111
21111X Y
?????
???????=
????
???
?????????=n m b b b b εεε 21210U B Y 为因变量列向量,即 y 的 n 个数, X 为自变量矩阵,即 m 个自变量与 y 对
应的 n 组数据, B 为回归系数向量, 而 U 为随机误差向量。 取随机误差向量 0=U , 有 XB Y =
因为在 X 矩阵中, 一般 m n ≠, 因而 X 无法求逆, 为了求解 B , 两边同时左乘 X 的转置矩阵 T X 得
XB X Y X T T =
而 X X T 为方阵,可求逆,这时可得
Y X X X B T T 1) (-=
即有多元线性回归预测模型系数估计公式
Y X X X B T T 1210) (-=?????
??
?????????=m b b b b (2-40)
2.多元线性回归模型的统计检验
(1)标准误差检验
多元线性回归预测模型标准差检验有因变量标准差 s 检验和各回归系数标 准差 bi s 检验。
(a )因变量标准差 s 检验 计算公式为
1
)
(1
221102--∑+∑+∑-∑=
---=m n y x b y x b y b y m n B s i i i i i i
T T Y
X Y Y T (2-41)
式中, m 为自变量个数, n 为样本数。
(b )各个回归系数标准差 ) , , 2, 1(m i s bi =检验计算公式为
) , , 2, 1, 0(m y s c s ii bi =?=
(2-42)
式中:ii c 为 1) (-X X T 矩阵中主对角线上的第 i 项。
(2)相关系数检验
多元线性回归预测模型的相关系数计算公式为
2
2n n R --=
Y Y Y X B T
T T (2-43)
(3) F 检验
多元线性回归预测模型的总体效果检验采用 F 检验,计算公式为
2
T T Y X B ms
F =
(2-44)
式中 m 为自变量个数。
在利用(2-44)式计算出 F 值后,确定显著性水平 a ,查 F 检验表,得 a 显 著水平下,当自由度 1--=m n v 时的 F 检验值 a F 。当 a F F ≥时,检验通过,模 型有效,反之则模型无效。
(4) t 检验
(5) DW 检验:按式(2-18) (6)预测区间
经过对回归预测模型进行检验, 判断为有显著的线性关系后, 在预测模型中 代入预先确定的自变量值,即可求得因变量在对应点上的预测值。
三、多重共线性
多重共线性是指自变量之间又存在线性关系, 或接近线性关系。 应用最小二 乘法估计参数的一个重要条件就是自变量之间为这完全的线性相关。 如果完全相 关,则 1) (-X X T 不存在,最小二乘法就失效了。在一般情况下,自变量之间都有 某种程度的相关。如经济系统中的工业产值、农业产值、运输、建筑业产值、固 定资产、职工人数等。如果相关程度比较低,则其影响可以忽略。但当存在高度 的相关性,即有严重的多重共线性时,会产生如下后果:
(1)参数估计的精度降低,某些回归系数的标准偏差 bi s 很大,不能正确反 映自变量与因变量之间的关联程度,使参数估计值很不可靠。
(2)回归系数的估计值可能对某几组观察值特别敏感,这些观察值一旦变 动,对参数估计值影响很大。
(3)回归系数可能出现与事理意义不符的符号。 (4)可能将有用的变量排除掉。 由于多重共线性的影响, 可能会导致预测失败, 因而要想办法消除。 消除时, 首先要进行判断, 是否在自变量之间存在较严重的相关性。 如果存在, 然后采用 一定的方法进行处理。
判断的方法有二种。一种是通过计算自变量之间的相关系数来判断。
根据自变量 i x 、 j x 的观察值,计算二者之间的相关系数 ij r
∑∑∑===?
?=
n
t jt
n
t it
n
i it
it
ij x
x
x x
r 1
21
21
(2-45)
显然, 当 1=ij r 时, i x 与 j x 完全相关, 即会出现完全的多重共线性; 当 0=ij r 时, i x 与 j x 完全不相关;一般 第二种判断方法是利用不包含某个变量的复相关系数 2j r 来判断。复相关系 数按式(2-33)计算。 设共有 m 个自变量,有回归方程 ) , , , (21m x x x f y = 为了判断多重共线性,分别构造不含某个变量 j x 的 m 个回归方程, ) , , , , , , (1121m j j j j x x x x x f y +-= ) , , 2, 1(m j = 并对每个方程估计出复相关系数 2 2221, , , m r r r 。 2j r 越大,则所对应的自变量 j x 与 其它解释变量发生多重共线性越严重。 以上二种方法前者是用相关系数来判断, 可判断在一定置信水平下的多重共 线性,但当变量较多时,判断不可靠。后者意义明确,但计算工作量大。 多重共线性可以采用以下方法消除。 (1) 剔除不必要的解释变量。 即从一组高度相关的自变量中剔除某个变量, 该变量可以是回归系数最小的,或 t 检验值最小的,或系数符号与经济意义不符 的,然后重新估计参数,建立预测模型,这是最常用的方法; (2)改变自变量的定义形式。如将观察值累加生成,或将二个自变量合并 形成一个新的变量,或用新的变量代替具有多重共线性的变量。 (3)增加观察值,避免或减少多重共线性; (4)寻找新的解释变量; (5)采用逐步回归法估计参数,减少多重共线性的影响。 第三章 多元线性回归模型 基本概念 (1)多元线性回归模型; (2)偏回归系数; (3)正规方程组; (4)调整的多元可决系数; 假设检验; (5)多重共线性; (6) 练习题 1. 多元线性回归模型的基本假设是什么?试说明在证明最小二乘估计量的无偏性和有效性 的过程中,哪些基本假设起了作用? tF2(在多元线性回归分析中,检验与检验有何不同?在一元线性回归分析中二者是否有等价的作用? 3(为什么说对模型参数施加约束条件后,其回归的残差平方和一定不比未施加约束的残差平方和小?在什么样的条件下,受约束回归与无约束回归的结果相同? XXX123Y4(在一项调查大学生一学期平均成绩()与每周在学习()、睡觉()、 娱乐() X4与其他各种活动()所用时间的关系的研究中,建立如下回归模型: YXXXXu,,,,,,,,,,,011223344 如果这些活动所用时间的总和为一周的总小时数168。问:保持其他变量不变,而改变其中一个变量的说法是否有意义?该模型是否有违背基本假设的情况? 如何修改此模型以使其更加合理? 5.表3-1给出三变量模型的回归结果。 -1 表 3 方差来源 平方和(SS) 自由度(d.f.) 平方和的均 值(MSS) 来自回归(ESS) 65965 - - 来自残差(RSS) - - - 来自总离差(TSS) 66042 14 n(1)求样本容量,残差平方和RSS,回归平方和ESS及残差平方和RSS的自由度。 2,2RR(2)求拟合优度及调整的拟合优度。 XX23Y(3)检验假设:和对无影响。应采用什么假设检验?为什么? XX33Y(4)根据以上信息,你能否确定和各自对的影响? 6.某地区通过一个样本容量为722的调查数据得到劳动力受教育的一个回归方程为 YXXX,,,,10.360.0940.1310.210123 2R,0.214 XXX123Y其中,为劳动力受教育年数,为该劳动力家庭中兄弟姐妹的人数,与分别为母亲与父亲受教育的年数。问: XXX123(1) 是否具有预期的影响?为什么?若与保持不变,为了使预测的受教育水平减少 X1一年,需要增加多少? X2(2)请对的系数给予适当的解释。 (3)如果两个劳动力都没有兄弟姐妹,但其中一个的父母受教育的年数为12年,另一个的父母受教育的年数为16年,则两人受教育的年数预期相差多少? X1Y7.以企业研发支出(R&D)占销售额的比重为被解释变量,以企业销售额与利润占销售 X2额的比重为解释变量,一个容量为32的样本企业的估计结果如下: YXX,,,0.4720.32log0.0512 (1.37) (0.22) (0.046) 2R,0.099 其中括号中为系数估计值的标准差。 logXX11Y(1) 解释的系数。如果增加10,,估计会变化多少个百分点?这在经济上是一个很大的影响吗? X1(2)针对R&D强度随销售额的增加而提高这一备择假设,检验它不随而变化的假设。分别在5,和10,的显著性水平上进行这个检验。 X2Y(3)利润占销售额的比重对R&D强度是否在统计上有显著的影响? 8.表3—2为有关经批准的私人住房单位及其决定因素的4个模型的估计量和相关统计值(括 p,t号内为-值,即以对应的统计量为临界值的置信度)(如果某项为空,则意味着模型中没有此变量)。数据为美国40个城市的数据。模型如下: YXXXXXX,,,,,,,,,,,,,,,,,Xu011223344556677 X1Y其中,为实际颁发的建筑许可证数量,为每平方英里(1平方英里=2.59平方千米)的 XX23为自有房屋的均值(单位:百美元),为平均家庭的收入(单位:千美元),人口密度, XXXX4567为1980----1992年的人口增长百分比,为失业率,为人均交纳的地方税,为人均缴纳的州税。 表 3-2 变量 模型A 模型B 模型C 模型D 813(0.74) —392(0.81) —1279(0.34) —973(0.44) Y 0.075(0.43) 0.062(0.32) 0.042(0.47) X1 —0.855(0.13) —0.873(0.11) —0.994(0.O6) —0.778(0.07) X2 110.4l(0.14) 133.03(0.04) 125.71(0.05) 116.60(0.06) X3 26.77(0.11) 29.19(0.06) 29.41(0.001) 24.86(0.08) X4 —76.55(0.48) X5 —0.061(0.95) X6 —1.006(0.40) —1.004(0.37) X7 7777 4.843x10 4.962x10 5.038x10 4.763X10RSS 20.349 0.338 0.322 0.312、 R 66661.488x10 1.424x10 1.418x10 1.399x10 ,2, 66661.776x10 1.634x10 1.593x10 1.538x10 AIC p(1)检验模型A中的每一个回归系数在10%水平下是否为零(括号中的值为-值)。根据检验结果,你认为应该把变量保留在模型中还是去掉? Hi:01,,6,7,,,,,0i(2)在模型A中,在10,水平下检验联合假设片。说明被择假设,计算检验统计值,说明其在零假设条件下的分布,拒绝或接受零假设的标准。说明你的结论。 (3)哪个模型是“最优的”?解释你的选择标准。 (4)说明最优模型中有哪些系数的符号是“错误的”。说明你的预期符号并解释原因。确认其是否为正确符号。 9. 在经典线性模型基本假定下,对含有三个自变量的多元回归模型 YXXXu,,,,,,,,,0112233 H:21,,,,012你想检验的虚拟假设是。 ,,,,,,Var2,,,,,12,,,,12 (1)用,的方差及其协方差求出。 H:21,,,,t012 (2)写出检验的统计量。 ,,,,,2,,,,12023 (3)如果定义,写出一个涉及,,和的回归方程,以便能直接 , ,,得到估计值及其标准误。 XX12Y10. 对于涉及到三个变量,,,的数据做以下回归: YXu,,,,,0111ii (1) YXu,,,,,0122ii (2) YXXu,,,,,,,011223iii (3) ,,,, ,,,,,,1112问在什么条件下才能有及,即多元回归与各自的一元回归所得的参数估计值相同。 YX,,,,,11. 对多元线性回归模型,试证明随机干扰项的方差的无偏估计量为 ',ee2,,enk1,,。其中为相应样本回归模型的残差向量。 , YX,,,,,12. 对多元线性回归模型,试证明普通最小二乘估计量具有最小方差性。 13.某公司想决定在何处建造一个新的百货店,对已有的30个百货店的销售额作为其所处地理位置特征的函数进行回归分析,并且用该回归方程作为新百货店的不同位置的可能销售额,估计得出(括号内为估计的标准差) ?Y,30,0.1,X,0.01,X,10.0,X,3.0,Xt1t2t3t4t (0.02) (0.01) (1.0) (1.0) Yti其中,第个百货店的日均销售额(百美元); X1ti ,第个百货店前每小时通过的汽车数量; X2ti ,第个百货店所处区域内的平均收入; X3ti,第个百货店内所有的桌子数量 X4ti ,第个百货店所处地区竞争店面的数量 请回答以下问题: (1) 各个变量前参数估计的符号是否与期望的符号一致, (2) 计算每个变量参数估计值的T值; ,(3)在,0.05的显著性水平下检验各变量的显著性。 答案 基本概念解释 (1)在现实经济活动中往往存在一个变量受到其他多个变量的影响的现象,表现为在线性回归模型中有多个解释变量,这样的模型被称为多元线性回归模型,多元指多个解释变量。 (2)在多元回归模型中,每一个解释变量前的参数即为偏回归系数,它测度了当其他解释变量保持不变时,该变量增加1个单位对被解释变量带来的平均影响程度。 (3)正规方程组指采用OLS法估计线性回归模型时,对残差平方和关于各参数求偏导,并令 ,''XXXY,,偏导数为零后得到的一组方程,其矩阵形式为。 _2R(4)调整的多元可决系数,又称多元判定系数,是一个用于描述伴随模型中解释变量的 2R增加和多个解释变量对被解释变量的联合影响程度的量。它与有如下关系: _n,122RR,,,1(1)nk, (5)多重共线性是多元回归中特有的一个概念,指多个解释变量间存在线性相关的情形。如果存在完全的线性相关性,则模型的参数就无法求出,OLS回归无法进行。 (6)联合假设检验是相对于单个假设检验来说的,指假设检验中的假设有多个,不止一个。 t如多元回归中的方程的显著性检验就是一个联合假设检验,而每个参数的,检验就是单个假设检验。 (7)在实际经济活动中,常常需要根据经济理论对模型中变量的参数施加一定的约束条件,对模型参数施加约束条件后进行回归,称为受约束回归。 (8)无约束回归是与受约束回归相对的一个概念,无需对模型中变量的参数施加约束条件进行的回归称为无约束回归。 习题答案 1. 多元线性回归模型的基本假定仍然是针对随机干扰项与针对解释变量两大类的假设。针对随机干扰项的假设有:零均值,同方差,无序列相关且服从正态分布。针对解释变量的假设有:解释变量应具有非随机性,如果是随机的,则不能与随机干扰项相关:各解释变量之间不存在(完全)线性相关关系。 在证明最小二乘估计量的无偏性中,利用了解释变量非随机或与随机干扰项不相关的假定;在有效性的证明中,利用了随机干扰项同方差且无序列相关的假定。 tF2. 在多元线性回归分析中,检验常被用作检验回归方程中各个参数的显著性,而检验则被用作检验整个回归关系的显著性。各解释变量联合起来对被解释变量有显著的线性关系,并不意味着每一个解释变量分别对被解释变量有显著的线性关系。在一元线性回归分析中,二者具有等价作用,因为二者都是对共同的假设——解释变量的参数等于零——进行检验。 3. 对模型参数施加约束条件后,就限制了参数的取值范围,寻找到的参数估计值也是在此条件下使残差平方和达到最小,它不可能比未施加约束条件时找到的参数估计值使得残差平方达到的最小值还要小。但当约束条件为真时,受约束回归与无约束回归的结果就相同了。 XXXX,,,,16812344. 由于,当其中一个变量变化时,至少有一个其他变量也得变化,因此,保持其他变量不变,而改变其中一个变量的说法是无意义的。 X 显然,由于四类活动的总和为一周的总小时数168,表明四个间存在完全的线性关系,因此违背了解释变量间不存在(完全)多重共线性的假设。 X4 可以去掉其中的一个变量,如去掉代表“其他”活动的变量,则新构成的三变量模 ,1型更加合理。如这时就测度了当其他两变量不变时,每周增加1小时的学习时间所带的学习成绩的平均变化。这时,即使睡觉和娱乐的时间保持不变,也可以通过减少其他活动的时间来增加学习的时间。而这时三个变量间也不存在明显的共线性问题。 ndf,,,..1155. (1)样本容量为 RSS=TSS-ESS=66042-65965=77 df..14212,,,ESS的自由度为 dfn..312,,,RSS的自由度为 ESS659652R,,,0.9988TSS66042(2) 2,n,1142RR,,,1(1),,,,10.00120.9986nk,,112 XX23F(3)应该采用联合假设检验,即检验,理由是只有这样做才能判断,,一起是否对Y有影响。 XX23Y(4)不能。因为仅通过上述信息,可初步判断,联合起来对有线性影响,两者的变 XX23Y化解释了变化的99.8%。但由于无法知道回归,前参数的具体估计值,因此还无 Y法判断它们各自对的影响有多大。 X1 6. (1)预期对劳动者受教育的年数有影响。因为在收入及支出预算约束一定的条件下,子女越多的家庭,每个孩子接受教育的时间会越短。 X1 根据多元回归模型偏回归系数的含义,前的参数估计值-0.094表明,在 其他条件不变的情况下,每增加1个兄弟姐妹,受教育年数会减少0.094年, 因此,要减少1年受 1,,10.6110.094教育的时间,兄弟姐妹需增加个。 X2 (2) 的系数表示当兄弟姐妹数与父亲受教育的年数保持不变时,母亲每增加1年受教育的机会,其子女作为劳动者就会预期增加0.131年的受教育机会。 (3)首先计算两人受教育的年数分别为 10.36+0.131x12+0.210x12=14.452 10.36+0.131x16+0.210x16=15.816 因此,两人的受教育年限的差别为 15.816—14.452=1.364 logXlogX11Y7. (1) 的系数表明在其他条件不变时,变化1个单位,变化的单位数, ,,,X1,,,,,,YX0.32log0.320.32100%,,1XX,,11即,换言之,当企业销售增长100%时, X1YY企业研发支出占销售额的比重会增加32个百分点。由此,如果增加10%,会增加3.2个百分点。这在经济上不是一个较大的影响。 H:0,,H:0,,t1101 (2)针对备择假设,检验原假设开。易知计算的统计量的值为 0.32t,,1.468t0.22。在5%的显著性水平下, 自由度为32—3=29的分布的临界值为 t1.699(单侧),计算的值小于该临界值,所以不拒绝原假设。意味着R&D强度不随销售额 tt的增加而变化。在10%的显著性水平下,分布的临界值为1.311,计算的值小于该值,拒绝原假设,意味着R&D强度随销售额的增加而增加。 0.05,1.087Xt20.46 (3)对,参数估计值的统计值为,它比在10%的显著性水平下的临界 Y值还小,因此可以认为它对在统计上没有显著的影响。 pptt8. (1)直接给出了-值,所以没有必要计算统计值以及查分布表。根据题意,如果-值<0.10,则我们拒绝参数为零的原假设。>0.10,则我们拒绝参数为零的原假设。> p 由于表中所有参数的-值都超过了10%,所以没有系数是显著不为零的。但由此去掉所有解释变量,则会得到非常奇怪的结果。其实正如我们所知道的,多元回归中去掉变量时 XXXXp2345一定要谨慎,要有所选择。本例中,,,的 -值仅比0.1稍大一点,在略掉,XX67,的模型C中,这些变量的系数都是显著的。 Hi:01,,6,7,,,Hi:1,,6,7,,,,,,0iii(2)针对联合假设,其对应的备择假设中至 H0少有一个不为零。检验假设,实际上就是参数的约束性检验,非约束模型为模型A,约束模型为模型D,检验统计值为 RSSRSSkk,,/,,,,RUURF,RSSnk/1,,,,UU=0.462 H0F显然,在假设下,上述统计量满足分布,在10%的显著性水平下,自由度为(4,32)FF的分布的临界值位于2.09和2.14之间。显然,计算的值小于临界值,我们不能拒绝 ,i,1,,6,7,,Hi0,所以是联合不显著的。 2R(3)模型D中的3个解释变量全部通过显著性检验。尽管值相对较小,残差平方和相对较大,但相对来说其AIC值最低,所以我们选择该模型为最优的模型。 ,,03(4)随着收入的增加,我们预期住房需要会随之增加。所以可以预期,事实上其估计 ,,04值确是大于零的。同样地,随着人口的增加,住房需求也会随之增加,所以我们预期,事实上其估计值也是如此。随着房屋价格的上升,我们预期对住房的需求人数减少,即我们 ,3预期估计值的符号为负,回归结果与直觉相符。出乎预料的是,地方税与州税为不显著的。由于税收的增加将使可支配收入降低,所以我们预期住房的需求将下降。虽然模型A是这种情况,但它们的影响却非常微弱。 9. (1)由数理统计学知识易知 ,,,,,,,,,,,,,,VVCovVar2ar4,4ar,,,,,,,,,,,,,,,,,,121122,,,,,,,, (2)由数理统计学知识易知 ,,,,2112t,se,2,,,,12 se,,,2,,,,,21212其中为的标准差。 ,,,,,2,,,,,21212(3)由知,代入原模型得 YXXXu,,,,,,,,,,,(2)0212233 ,,,,,,,,,,XXXXu(2)0121233 , ,,这就是所需的模型,其中估计值及其标准误都能通过对该模型进行估计得到。 10. 由回归模型(1)与(2)分别知 ,,xyxy,,1ii2ii,,,,1122xx,,1i2i YXXe,,,,,11223iii对模型(3),令其样本回归模型的离差形式为 22eYXX,,,,,,,,iii1122求 的最小值,可得如下正规方程组: , 2yxxxx,,,,,,,iiiii111212 2yxxxx,,,,,,,iiiii222112 解此方程组得 2,yxxyxxx,,,,,,,,,,,,,iiiiiii12212,,1222xxxx,,,,,,1212iiii 2,yxxyxxx,,,,,,,,,,,,,iiiiiii21112,,2222xxxx,,,,,,1212iiii ,,,,xx,0XX,,,,,,,12ii121112可见,当时,即与完全线性无关(正交)时,有及。由此得多元回归的一个重要的结论:当各解释变量没有线性相关性时,多元回归中各解释变量的 参数等于分别进行一元回归时解释变量的参数。 11. 由于被解释变量的估计值与观测值之间的残差 , eYX,,, ,1'',,,,XXXXXX,,,,,,,, ,1'',,,,XXXX,, ,1'',,IXXXX,,,,,,,,, ,M, 残差的平方和为 '''eeMM,,, ,1''MIXXXX,,,,因为,为对称等幂矩阵,即 'MM, 2'MMMM,, 所以有 ''eeM,,, ,1'''',,EeeEIXXXX,,,,,,,,,,,,,, ,12'',,,trIXXXX,,,,,,,, ,12'',,,trItrXXXX,,,,,,,,,, 2,,,,nk1,,,,,, tr其中符号“”表示矩阵的迹,其定义为矩阵主对角线元素的和。于是 'Eee,,2,,nk1,, 以上过程既导出了随机干扰项方差的估计量为 ',ee2,,nk1,, 也证明了该估计量是无偏估计量。 *,,12. 证 设是其他方法得到的关于的线性无偏估计量: **,,CY ,1*''CCDXXXD,,,,,,D其中,,为一固定矩阵,于是 ****,,,,,,CYCXC **ECX,,,,, **,CXI,的无偏性要求。由于 ,1*''CXXXXXDX,,,, *DX,0CXI,于是,当且仅当。 *,的方差—协方差矩阵为 '***,,CovE,,,,,,,,,,,,,,,,,, '**,,ECYCY,,,,,,,,,,,,, '**,,ECC,,,,,,,,,,, ,,11''''',,,,EXXXDXXXD,,,,,,,,,,,,,,,,,,, ,,,,11112'''''''',,,XXXXXXXXXDDXXXDD,,,,,,,,,,,,,,,, ,12'2',,,,XXDD,, ,*',,DD为主对角线元素非负的对称矩阵,由此得的方差大于或等于最小二乘估计量的方差。 XXXX1t2t3t4t13((1)、、的参数符号与期望符号一致,的参数符号与期望符号不一致。 (2) 参数估计值 0.1 0.01 10.0 3.0 估计的标准差 0.02 0.01 1.0 1.0 t-值 5.0 1.0 10.0 3.0 (3)这里,单个参数显著性检验的t-统计量服从自由度为25的t-分布,查t-分布表,可 X2t知在0.05的显著水平下,临界值为2.06,可见,除了的系数以外,所有变量的系数估计值在0.05的水平下都是统计显著的。 自测题 1. 对多元线性回归方程的显著性检验,所用的F统计量可表示为( ) ESS(n,k)ESS(k,1) RSS(k,1)RSS(n,k)A、 B、 2ESSR(n,k) 2RSS(n,k)(1,R)(k,1)C、 D、 2e,800,tn,242. 已知三元线性回归模型估计的残差平方和为,估计用样本容量为, 2uSt则随机误差项的方差估计量为( ) A、33.33 B、 40 C、 38.09 D 、36.36 22RR3. 在多元回归中,调整后的判定系数与判定系数的关系为( ) 22222222RRRRRRRRA(< b(=""> C(= D( 与的关系不能确定 4.多元线性回归分析中的 RSS反映了( ) A(应变量观测值总变差的大小 B(应变量回归估计值总变差的大小 C(应变量观测值与估计值之间的总变差 D(Y关于X的边际变化 R,0.9985XX235. 二元回归模型中,经计算有相关系数,则表明( )。 XXXX2323A、和间存在完全共线性 B、和间存在不完全共线性 XXXX2323C、对的拟合优度等于0.9985 D、不能说明和间存在多重共线性 2R6. 简答:在多元线性回归模型估计中,判定系数可用于衡量拟合优度,为什么还要计算修 2R正判定系数, 7.计算 X2家庭消费支出(Y)、可支配收入()、个人个财富()设定模型如X1 Y,,,,X,,X,,i011i22ii下: 回归分析结果为: LS // Dependent Variable is Y Date: 18/4/02 Time: 15:18 Sample: 1 10 Included observations: 10 Variable Coefficient Std. Error T-Statistic Prob. C 24.4070 6.9973 ________ 0.0101 0.3401 0.4785 ________ 0.5002 X1 X2 0.0823 0.0458 0.1152 R-squared ________ Mean dependent var 111.1256 Adjusted R-squared 0.9504 S.D. dependent var 31.4289 S.E. of regression ________ Akaike info criterion 4.1338 Sum squared resid 342.5486 Schwartz criterion 4.2246 Log likelihood - 31.8585 F-statistic 87.3339 Durbin-Watson stat 2.4382 Prob(F-statistic) 0.0001 补齐表中划线部分的数据(保留四位小数);并写出回归分析报告。 转载请注明出处范文大全网 » 多元线性回归的计算方法范文五:多元线性回归模型