




版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
1、实用回归分析第四版第一章回归分析概述1.3 回归模型中随机误差项e的意义是什么?答:8为随机误差项,正是由于随机误差项的引入,才将变量间的关系描述为一个随机方程,使得我们可以借助随机数学方法研究y与x1,x2.xp的关系,由于客观经济现象是错综复杂的,一种经济现象很难用有限个因素来准确说明, 随机误差项可以概括表示由于人们的认识以及其他客观原因的局限而没有考虑 的种种偶然因素。1.4 线性回归模型的基本假设是什么?答:线性回归模型的基本假设有:1.解释变量x1.x2 .xp是非随机的,观测值 xi1.xi2 .xip 是常数。2.等方差及不相关的假定条件为e( e i)=0 i=1,2 cov
2、(ei, j)= (ta23.正态分布的假定条件为相互独立。4.样本容量的个数要多于解释变量的个数, 即 np.第二章 一元线性回归分析思考与练习参考答案2.1一元线性回归有哪些基本假定?答:假设1、解释变量x是确定性变量,y是随机变量;假设2、随机误差项e具有零均值、同方差和不序列相关性:e( i)=0i=1,2,nvar ( i) = 22i=1,2,,ncov( i, )=0i wj i,j= 1,2,,n假设3、随机误差项e与解释变量x之间不相关:cov(xi, i)=0i=1,2, ,n假设4、e服从零均值、同方差、零协方差的正态分布in(0,仃2)i=1,2,n2.3 证明(2.2
3、7 式),1ei =0 ,工eixi=0 。 nnq,(y -y?)2(丫-(?0nx-)2证明:11其中:=%+b?xii 血+鹿*7)=。|(a+/?x-i;)工=o即:工e =0 ,工exi=02.5 证明凡是由的无偏估计。e 二 y -y?萦0掾0-1 n证明:e(4)=e(y - zx) = e% yi n yxpyjlxx二 en (1_xxa)yi = en (-x)( 0 区“)i=1 nlxxi=1 nlxx=e 八 p-xxpx)/二i =1nlxx+ 9 j i=i n. xq)e(;i)= lxx2.6 证明证明:var( ?0) =(- t-x)=2n xi x 2
4、i 12(- nxxn 1 xi x j 1 xi x 2var(z) =var(-xi)yj=(-x-i)2var( ixi ji=1 nlxxi=1 nlxx(1)2 -2x xi -xnlxx-x - x 22(xx-)2。2lxxj工ln lxx2.7 证明平方和分解公式:sst=sse+ssr证明:n_ 2 n_sst uyi y j = yi -r) 葩 y 2 i =1i =1n_ 2 n_ n2=y 2 yi -yi) y _ yi -w)i =1i =1i=1n2 n2= 、. yi y一 yi -常)=ssr ssei =1i=12.8 验证三种检验的关系,即验证:修。一吊
5、证明:(1);?r , lyy lxx.c? lxx - sse(lxx(n-2) - sse(n-2) , sse sst . 1 _ r2(2)ssr= (? -y)2=s (/+(?1为-y)2= (y +敞xi-x)-y)2=e (酊xx)2 = ?2lxxl ssr/1.f -sse/(n -2)?2lt2?t :t(xi - x)2lxx12.9 验证(2.63)式:var(ei )=(1 - n证明:var(e ) =var( y y?) = var(y) + var(y?) 2cov( yi,y?) = var(yi)+var(% +限)-2cov( y , y +(?3一又)
6、(为一:)2lxx2 1 -2二(xi -1)2lxx1=1 - n(xi -x)2lxx二2cov(yi,y ?i(xi- x) =cov(yi,y) cov(yi,4 - x)其中:1 一= cov(yi, % y)(xi - x)cov( yi ji 1(xi - x)lxxyi)1二 2 (xx)2 二 2lxx-x)2lxx)-2;:?22.10用第9题证明-2是的无偏估计量证明:e(;?2)n 2n、e(yi f?)2i =1n 2n 2n工 var(e)=n 2(n -2)-2 =。21 ne(e2)(x -x)2f21.一个回归方程的复相关系数 r=0.99,样本决定系数r2=
7、0.9801 ,我们能判断这个回归方程就很理想吗?答:不能断定这个回归方程理想。因为:1 .在样本容量较少,变量个数较大时,决定系数的值容易接近1,而此时可能f检验或者关于回归系数的t检验,所建立的回归方 程都没能通过。2 .样本决定系数和复相关系数接近于1只能说明 y与自变量x1,x2,xp整体上的线性关系成立,而不能判断回归方程和每个自变量是显著的,还需进行 f检验和t检验。3 .在应用过程中发现,在样本容量一定的情况下,如果在模型中增加解释变量必定使得自由度减少,使得 r2往往增大,因此增加解释变量(尤其是不显著的解释变量)个数引起的 r2的增大与拟合好坏无关j =1,2,., pn其中
8、:ljj 依-元)2 i 12.被解释变量y的期望值与解释变量 x1,x2,xk的线性方程为:e(y)=飞 5一:x 2lh - axk(3-2)称为多元总体线性回归方程,简称总体回归方程。对于n组观测值y,x1i,x2i,xki =1,2,,n),其方程组形式为:yi =飞x2i , iii , -kxki ,(i =1,2,l|l,n)(3-3)即y2 = 01x12 -x21 . xh l2x22 .xk2 . %yn = 0- mxm 2x2nxkn 其矩阵形式为1121k1y21222k2y =x b+xmx2nxkn(1-o1 p旭一j“n 1(3-4)其中y n1丫1丫21121
9、为被解释变量的观测值向量;x n (k 1)1222xk1xk2为解释变一瓦一量的观测值矩阵;限由乂 =为总体回归参数向量;xmx2nxkn一丫匕为随机误差项向量。j1n 1凡一多元回归线性模型基本假定:课本p57第四章4.3 简述用加权最小二乘法消除一元线性回归中异方差性的思想与方法。答:普通最小二乘估计就是寻找参数的估计值使离差平方和达极小。其中每个平 方项的权数相同,是普通最小二乘回归参数估计方法。 在误差项等方差不相关的条件下,普通最小二乘估计是回归参数的最小方差线性无偏估计。然而在异方差 的条件下,平方和中的每一项的地位是不相同的, 误差项的方差大的项,在残差 平方和中的取值就偏大,
10、作用就大,因而普通最小二乘估计的回归线就被拉向方差大的项,方差大的项的拟合程度就好,而方差小的项的拟合程度就差。由ols 求出的仍然是的无偏估计,但不再是最小方差线性无偏估计。 所以就是:对较大 的残差平方赋予较小的权数,对较小的残差平方赋予较大的权数。 这样对残差所 提供信息的重要程度作一番校正,以提高参数估计的精度。加权最小二乘法的方法:wi(yi - ?j2-wi(yi - ?0 - ?1xi)2 wi(xi - xw)(y - yw)i=11w0wi= 1(xiyw- ?wxwxw)2二 i 二kxi表示 1wikxi2xi2或 c- i2m=kxi ,wi =m xiwi,(2)(2
11、)(3)4.4 简述用加权最小二乘法消除多元线性回归中异方差性的思想与方 法。答:运用加权最小二乘法消除多元线性回归中异方差性的思想与一元线性回 归的类似。多元线性回归加权最小二乘法是在平方和中加入一个适当的权数以调整各项在平方和中的作用,加权最小二乘的离差平方和为:nqw( - o, f, , : p) = wi (yi - -,-o - -ixii - - - pxip )2 i 1加权最小二乘估计就是寻找参数 久,叫,,%的估计值用w,1?1w,fpw使式 的离差平方和qw达极小。所得加权最小二乘经验回归方程记做? = ? x -i? xyw0w1w x1pw xp多元回归模型加权最小二
12、乘法的方法:首先找到权数wi,理论上最优的权数wi为误差项方差52的倒数,即wi =工(4)-i误差项方差大的项接受小的权数,以降低其在式(2)平方和中的作用;误 差项方差小的项接受大的权数,以提高其在平方和中的作用。由(2)式求出的加权最小二乘估计 阳w,耳w,,rw就是参数久聿,,pp的最小方差线性无偏估 计。一个需要解决的问题是误差项的方差 。2是未知的,因此无法真正按照式(4) 选取权数。在实际问题中误差项方差 52通常与自变量的水平有关(如误差项方差 52随着自变量的增大而增大),可以利用这种关系确定权数。例如 52与第j个自 变量取值的平方成比例时,即62=kx2时,这时取权数为1
13、皿wi(5)为更一般的情况是误差项方差 仃:与某个自变量xj (与|ei|的等级相关系数最大 的自变量)取值的幕函数xim成比例,即叼2=卜乂:,其中m是待定的未知参数。止匕 时权数为wi =-xij这时确定权数wi的问题转化为确定幕参数 m的问题,可以借助spss软件解决。第五章5.3 如果所建模型主要用于预测,应该用哪个准则来衡量回归方程的优劣? 答:如果所建模型主要用于预测,则应使用 cp统计量达到最小的准则来衡量回 归方程的优劣。5.4 试述前进法的思想方法。答:前进法的基本思想方法是:首先因变量 y对全部的自变量x1,x2,,xm建立 m个一元线性回归方程,并计算f检验值,选择偏回归
14、平方和显著的变量(f值 最大且大于临界值)进入回归方程。每一步只引入一个变量,同时建立 m1个 二元线性回归方程,计算它们的f检验值,选择偏回归平方和显著的两变量变量(f值最大且大于临界值)进入回归方程。在确定引入的两个自变量以后,再引 入一个变量,建立m 2个三元线性回归方程,计算它们的 f检验值,选择偏回 归平方和显著的三个变量(f值最大)进入回归方程。不断重复这一过程,直到 无法再引入新的自变量时,即所有未被引入的自变量的f检验值均小于f检验临界值fa (1,n-p-1),回归过程结束。5.5 试述后退法的思想方法。答:后退法的基本思想是:首先因变量 y对全部的自变量x1,x2,,xm建
15、立一个 m元线性回归方程,并计算t检验值和f检验值,选择最不显著(p值最大且大 于临界值)的偏回归系数的自变量剔除出回归方程。 每一步只剔除一个变量,再 建立m-1元线性回归方程,计算t检验值和f检验值,剔除偏回归系数的t检 验值最小(p值最大)的自变量,再建立新的回归方程。不断重复这一过程,直 到无法剔除自变量时,即所有剩余p个自变量的f检验值均大于f检验临界值f a(1,n-p-1),回归过程结束。第六章消除多重共线性的方法7.2 岭回归的定义及统计思想是什么?答:岭回归法就是以引入偏误为代价减小参数估计量的方差的一种回归方法,其统计思想是对于(xx)-1为奇异时,给x x加上一个正常数矩
16、阵d,那么x x+d 接近奇异的程度就会比x x接近奇异的程度小得多,从而完成回归。但是这样 的回归必定丢失了信息,不满足blue。但这样的代价有时是值得的,因为这样可 以获得与专业知识相一致的结果。7.3 选择岭参数k有哪几种方法?答:最优k是依赖于未知参数p和仃2的,几种常见的选择方法是:岭迹法:选才i%的点能使各岭估计基本稳定,岭估计符号合理,回 归系数没有不合乎经济意义的绝对值,且残差平方和增大不太多;方差扩大因子法:c(k) =(xx+ki),xx(xx+ki),,其对角线元5(k)是岭估计的方差扩大因子。要让c/(k)e10;残差平方和:满足sse(k)csse成立的最大的k值。7.4 用岭回归方法选择自变量应遵循哪些基本原则?答:岭回归选择变量通常的原则是:1 .在岭回归的计算中,我们通常假定涉及矩阵已经
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 2025至2031年中国空气干燥净化装置行业投资前景及策略咨询研究报告
- 2024届山东省临沂市沂县重点中学中考一模数学试题含解析
- 甘肃省景泰县2023-2024学年中考数学四模试卷含解析
- 历史视角下美国关税分析经济与资产影响
- 2025年车间安全培训考试试题【考点提分】
- 2025新进厂职工安全培训考试试题【考点精练】
- 2024-2025安全管理人员安全培训考试试题(完整)
- 2025年企业安全培训考试试题含答案下载
- 2024-2025厂级职工安全培训考试试题及答案(有一套)
- 25年公司厂级安全培训考试试题达标题
- 高血钙症的遗传易感性研究
- 2023年版成人机械通气患者俯卧位护理解读
- GB 44495-2024汽车整车信息安全技术要求
- 猩红热知识科普
- 《中国服饰史》-沈从文等
- 【市质检】福州市2024-2025学年高三年级第一次质量检测 英语试卷(含答案)
- 跨学科视角下中学物理实践活动设计
- 拆除外墙合同范本
- 国企内部审计计划模板范文
- 辽宁省沈阳市法库县三校联考2023-2024学年六年级下学期6月月考数学试题
- 中考语文二轮专题复习:《散文阅读》课件
评论
0/150
提交评论