多元线性回归模型(参考版)_第1页
多元线性回归模型(参考版)_第2页
多元线性回归模型(参考版)_第3页
多元线性回归模型(参考版)_第4页
多元线性回归模型(参考版)_第5页
已阅读5页,还剩61页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

计量经济学

Econometrics第四章多元线性回归模型2

内容: ●为什么要用多元模型 ●多元回归的最小二乘估计

●最小二乘估计量的性质

●统计检验与置信区间

●预测第一节为何要用多元模型考虑下面的例子:某人试图解释一个人的工资水平的决定,为此,他找到的解释变量为受教育水平,于是他构造了如下的计量模型:wagei=α+βedui+μi〔1〕 wagei—第i个人的工资水平; edui—第i个人的受教育水平; μi—随机扰动项。分析除教育水平外,我们很容易想到影响人们工资水平的还有工作经历。而工作经历那么与受教育水平又相关。压力仅是砖头1的吗?砖头1砖头2如果为了测定砖头1对桌面的压力,应如何做呢?解决方法只要在模型(1)中参加新的变量即可,即模型变成如下形式:wagei=α+β1edui+β2experi+εi〔2〕 experi—第i个人的工作经历。模型(2)把exper从误差项中取出,并明确地放到方程里。此时,β1就度量在exper不变的情况下,教育程度对工资的单纯影响。而模型(1)就必须假定工资经历与受教育程度无关,这个假定很牵强。应用多元线性回归模型的几个原因:第一,即使我们所关注的仅是一个解释变量X1对被解释变量Y的影响,但如果还存在其它解释变量X2、X3…等也对Y有影响,且同时与X1相关,那么此时就应将X2、X3…等一并引入模型,即建立如下新模型: Yi=α+β1X1i+β2X2i+β3X3i+…+μi〔3〕第二,提高预测准确度。如果我们要试图解释被解释变量Y的波动,显然,引入更多的解释变量可以使解释更准确,即预测Y更准确。第三,提高假设检验中所用“仪器〞的准确度。比方,有时一个因素虽然与已有的解释变量无关,但你不将其“揪出来〞放到模型中去,而将它看作随机扰动项的一局部,它就可能造成扰动项的异方差、自相关等问题。一个思考问题在cons=α+β1inc+β2inc2+μ中,边际消费倾向是多少?多元回归模型的构成习惯上:把常数项看成为一虚变量的系数,该虚变量的样本观测值始终取1。这样:模型中解释变量的数目为〔k+1〕多元回归模型的数据结构矩阵表示那么有多元模型的拟合如果拟合的结果记为因此,多元回归使我们能在非实验环境中进行自然科学家在受控实验中所能做的事情:保持其他因素不变。样本回归模型样本回归函数的随机形式样本回归函数确实定形式第二节多元回归的最小二乘估计一、多元线性回归的根本假设假设2:随机误差项具有零均值、同方差及无序列相关性假设1:解释变量是非随机的或固定的,{Y1,Y2……Yn}为SRS,总体模型是线性的:假设3:解释变量与随机干扰项不相关假设4:解释变量之间不存在严格的线性相关性,即完全共线性〔perfectcollinearity〕假设5:随机干扰项服从正态分布假设2—5可以用矩阵符号表示:

假设2,

假设3,E(X’U)=0,即

假设5,向量U服从多维正态分布,即在采用OLS进行参数估计时,不需要正态性假设。在利用参数估计量进行统计推断时,需要假设随机项的概率分布。

假设4,rank(X)=k+1<n假设1—4〔正态性假设除外〕也称为线性回归模型的经典假设或高斯〔Gauss〕假设,满足该假设的线性回归模型,也称为经典线性回归模型〔ClassicalLinearRegressionModel,CLRM〕。同时满足正态性假设的线性回归模型,称为经典正态线性回归模型〔ClassicalNormalLinearRegressionModel,CNLRM〕。最小二乘原理:根据被解释变量的所有观测值与估计值之差的平方和最小的原那么求得参数估计量。 即使残差平方和最小的参数估计量。二、多元线性回归的最小二乘估计目标下面给出四种OLS估计量的表示1.偏导数法最小二乘估计量的决定式几个常用结论〔类似一元线性回归〕:2.矩阵法〔常用,重点〕3.离差法对总体回归模型两边分别求平均上面两式相减,得那么有以离差形式表示的总体回归模型:相应的,以离差形式表示的样本回归模型:另有:结束了吗?4.偏回归解释法〔Frisch-Waugh(1933)〕例如对于k=2因为排除了其他因素,斜率系数度量了该因素对Y的偏效应。补充:遗漏变量的偏误高斯—马尔可夫定理

在经典线性回归模型的假定条件下,最小二乘估计量是最优线性无偏估计量。最优线性无偏估计量(BLUE)Bestlinearunbiasedestimator同时满足“线性〞、“无偏〞、“方差最小〞三个优良性质的估计量。第三节最小二乘估计量的性质

1、线性性

其中,C=(X’X)-1X’为一仅与固定的X有关的行向量

2、无偏性

无偏性的应用:过度设定模型中,多余变量的参数估计量依然是无偏的3、有效性〔最小方差性〕对于方差最小性的证明,略由于以cii表示矩阵(X’X)-1

主对角线上的第i+1个元素,i=0,1,2…k,于是参数估计量的方差为:

另一种表达更有意义:分析 可以给我们很多启发为了区间估计和假设检验,希望OLSE的方差尽量小1.增大样本变异数,以提高SSTj,一种途径是增大样本量2.尽量选彼此相关性小的变量,以降低Rj2 一种极端是完全不相关; 另一种极端是完全共线性; 多重共线性,即Rj2接近1,此时并没有打破假设,仍然可能使用OLS,毕竟还要取决于SSTj和σ23.过度设定会使得原有解释变量的方差增大一、拟合优度检验二、方程的显著性检验(F检验)三、变量的显著性检验〔t检验〕四、参数的置信区间第四节统计检验与置信区间一、拟合优度检验那么总离差平方和的分解由于

=0所以有:

可决系数该统计量越接近于1,模型的拟合优度越高。

问题:在应用过程中发现,如果在模型中增加一个解释变量,R2往往增大〔Why?)这就给人一个错觉:要使得模型拟合得好,只要增加解释变量即可。但是,现实情况往往是,由增加解释变量个数引起的R2的增大与拟合好坏无关,R2需调整。调整的可决系数〔adjustedcoefficientofdetermination〕

在样本容量一定的情况下,增加解释变量必定使得自由度减少,所以调整的思路是:将残差平方和与总离差平方和分别除以各自的自由度,以剔除变量个数对拟合优度的影响:其中:n-k-1为残差平方和的自由度,n-1为总体平方和的自由度。

二、方程的显著性检验(F检验)

方程的显著性检验,旨在对模型中被解释变量与解释变量之间的线性关系在总体上是否显著成立作出推断。

1、方程显著性的F检验

即检验模型Yi=

0+1X1i+2X2i++kXki+ii=1,2,,n中的参数

j是否显著不为0。

可提出如下原假设与备择假设:H0:

0=1=2==k=0H1:

j不全为0F检验的思想来自于总离差平方和的分解式:

TSS=ESS+RSS如果这个比值较大,那么X的联合体对Y的解释程度高,可认为总体存在线性关系,反之总体上可能不存在线性关系。因此,可通过该比值的大小对总体线性关系进行推断。根据数理统计学中的知识,在原假设H0成立的条件下,统计量

服从自由度为(k,n-k-1)的F分布

给定显著性水平

,可得到临界值F

(k,n-k-1),由样本求出统计量F的数值,通过F

F

(k,n-k-1)或F

F

(k,n-k-1)来拒绝或接受原假设H0,以判定原方程总体上的线性关系是否显著成立。2、拟合优度检验与方程显著性检验的关系

请尝试自己证明此关系三、变量的显著性检验〔t检验〕方程的总体线性关系显著

每个解释变量对被解释变量的影响都是显著的因此,必须对每个解释变量进行显著性检验,以决定是否作为解释变量被保存在模型中。这一检验是由对变量的t检验完成的。

1、t统计量

由于以cii表示矩阵(X’X)-1

主对角线上的第i+1个元素,i=0,1,2…k,于是参数估计量的方差为:

其中

2为随机误差项的方差,在实际计算时,用它的估计量代替:

补充:矩阵迹的性质1.标量的迹等于标量本身2.迹的轮换性定理3.求迹可以与求期望交换4.求迹可以提出数值随机干扰项方差的OLSE因此,可构造如下t统计量

2、t检验设计原假设与备择假设:

H1:

i0

给定显著性水平

,可得到临界值t/2(n-k-1),由样本求出统计量t的数值,通过|t|

t/2(n-k-1)或|t|

t/2(n-k-1)来拒绝或接受原假设H0,从而判定对应的解释变量是否应包括在模型中。

H0:i=0〔i=1,2…k〕注意:一元线性回归中,t检验与F检验一致

一方面,t检验与F检验都是对相同的原假设H0:

1=0进行检验;

另一方面,两个统计量之间有如下关系:

四、参数的置信区间

参数的置信区间用来考察:在一次抽样中所估计的参数值离参数的真实值有多“近〞。在变量的显著性检验中已经知道:容易推出:在(1-)的置信水平下

i的置信区间是

其中,t/2为显著性水平为

、自由度为n-k-1的临界值。

如何才能缩小置信区间?

增大样本容量n,因为在同样的样本容量下,n越大,t分布表中的临界值越小,同时,增大样本容量,还可使样本参数估计量的标准差减小;提高模型的拟合优度,因为样本参数估计量的标准差与残差平方和呈正比,模型优度越高,残差平方和应越小。提高样本观测值的分散度,一般情况下,样本观测值越分散,(X’X)-1的分母的|X’X|的值越大,致使区间缩小。一、E(Y0)的置信区间

二、Y0的置信区间第五节多元线性回归模型的预测对于模型

给定样本以外的解释变量的观测值X0=(1,X10,X20,…,Xk0),可以得到被解释变量的预测值:它可以是总体均值E(Y0)或个值Y0的预测。但严格地说,这只是被解释变量的预测值的估计值,而不是预测值。

为了进行科学预测,还需求出预测值的置信区间,包括E(Y0)和Y0的置信区间。

一、E(Y0)的置信区间易知

容易证明

于是,得到(1-)的置信水平下E(Y0)的置信区间:

其中,t/2为(1-)的置信水平下的临界值。二、

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论