第五章經(jīng)典線性回歸模型(II)(高級計量經(jīng)濟(jì)學(xué)-清華大學(xué) 潘文清)_第1頁
第五章經(jīng)典線性回歸模型(II)(高級計量經(jīng)濟(jì)學(xué)-清華大學(xué) 潘文清)_第2頁
第五章經(jīng)典線性回歸模型(II)(高級計量經(jīng)濟(jì)學(xué)-清華大學(xué) 潘文清)_第3頁
第五章經(jīng)典線性回歸模型(II)(高級計量經(jīng)濟(jì)學(xué)-清華大學(xué) 潘文清)_第4頁
第五章經(jīng)典線性回歸模型(II)(高級計量經(jīng)濟(jì)學(xué)-清華大學(xué) 潘文清)_第5頁
已閱讀5頁,還剩72頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)

文檔簡介

1、第五章 經(jīng)典線性回歸模型(II)Classical Linear Regression Model (II)5.1 回歸模型的解釋與比較回歸模型的解釋與比較Interpreting and Comparing Regression Models一、解釋線性模型一、解釋線性模型 interpreting the linear model 對模型 Yi=0+1X1i+kXki+i如何解釋j為“當(dāng)其他變量保持不變,Xj變化一個單位時Y的平均變化”? 本質(zhì)上: j=E(Y|X)/Xj即測度的是“邊際效應(yīng)”(marginal effect) 1 1、邊際效應(yīng)、邊際效應(yīng) 因此,當(dāng)一個工資模型工資模型為 Y

2、=0+1age+2age2+3education+4gender+時,只能測度“年齡”變化的邊際效應(yīng): E(Y|X)/age=1+22age解釋:“當(dāng)其他變量不變時,年齡變動1個單位時工資的平均變化量” 2、彈性:彈性: 經(jīng)濟(jì)學(xué)中時常關(guān)心對彈性的測度。這時模型常寫為: lnYi=0+1lnX1i+klnXki+I 在E(i|lnX1i,lnX2i,lnXki)=0的假設(shè)下,彈性為E(Y|X)/E(Y|X)/Xj/XjE(lnY|lnXj)/lnXj=k即彈性并非常數(shù),而是隨著Xj的變化而變化。當(dāng)原始模型為 Yi=0+1X1i+kXki+i時,彈性為: E(Y|X)/E(Y|X)/Xj/Xj =

3、jXj/(0+1X1+kXk) 3 3、相對變化、相對變化 如果模型為 lnYi=0+1X1i+kXki+i則: j=E(lnY|X)/Xj解釋為:Xj變化1個單位時Y的相對變化量。二、選擇解釋變量二、選擇解釋變量 Select the Set of Regressors Question: 如何不遺漏相關(guān)變量,同時也不選擇無關(guān)變量? 假設(shè)有如下兩模型: Y=X1 1+X2 2+ 1 (5.1.1) Y=X1 1+ 2 (5.1.2)其中,(X1)n k1=(1,X1,Xk1), (X2)n (k-k1)=(Xk1+1,Xk) 1=(0,1,k1), 2=(k1+1,k) 顯然,(5.1.2)

4、為(5.1.1)的受約束模型。約束條件為:H0: 2=0 1 1、部分回歸、部分回歸( (partial regression) )Question: 如何解釋j為“當(dāng)其他變量保持不變,Xj變化一個單位時Y的平均變化”?YX1X2在X1與X2影響Y的同時,可能存在著X1與X2間的相互影響。如何測度? 將X2中的每一元素Xj (j=k1+1, , k)對X1回歸: Xj=X1(X1X1)-1X1Xj+Xj-X1(X1X1)-1X1Xj或 X2=X1(X1X1)-1X1X2+X2-X1(X1X1)-1X1X2 X2=X1Q1+(I-P1)X2 =explained part + residuals

5、其中,Q1=(X1X1)-1X1X2對 X2=X1Q1+(I-P1)X2 =X1Q1+M1X2 =explained part + residualsM1X2就是排除了X1的其他因素對X2的“凈”影響。X2對X1的回歸稱為輔助回歸輔助回歸(auxiliary regression)Question: 如何測度X1對Y的“凈”影響? 部分回歸部分回歸(Partial regression) Step 1: 排除X2的影響。將Y對X2回歸,得“殘差”M2Y=(I-X2(X2X2)-1X2Y將X1對X2回歸,得“殘差”M2X1=(I-X2(X2X2)-1X2X1M2Y為排除了X2的凈Y,M2X1為排

6、除了X2的凈X1 將 M2Y對M2X1回歸,得X1對Y的“凈”影響: M2Y=M2X1b*+e*這里,b*=(M2X1)(M2X1)-1(M2X1)M2Y=X1-1M2Y e*=M2Y-M2X1b*Step 2: 估計X1對Y的“凈”影響。Proof: b為原無約束回歸模型的OLS解,則有 XXb=XY或 X1X1b1+X1X2b2=X1Y (*) X2X1b1+X2X2b2=X2Y (*)由(*)得 b2=(X2X2)-1X2Y-(X2X2)-1X2X1b1代入(*)且整理得: X1M2X1b1=X1M2Y b1=(X1M2X1)-1X1M2Y=X1-1M2Y=b*其中,M2=I-X2(X2

7、X2)-1X2又 M2Y=M2X1b1+M2X2b2+M2e1而 M2X2=0, M2e1=e1-X2(X2X2)-1X2e1=e1則 M2Y=M2X1b1+e1 或 e1=M2Y-M2X1b1=e* 記受約束模型(5.1.2)的OLS解為br=(X1X1)-1X1Y于是 br=(X1X1)-1X1Y= (X1X1)-1X1X1b1+X2b2+e1 =b1+ (X1X1)-1X1X2b2+ (X1X1)-1X1e1 =b1+ (X1X1)-1X1X2b2=b1+Q1b2其中,Q1= (X1X1)-1X1X2則 Y=X1b1+X2b2+e1 且 X1e1=0, X2e1=0因此,當(dāng)b2=0或X1

8、與X2正交時,都有br=b1Question: 受約束模型與無約束模型在X1前的參數(shù)估計量相等嗎? 將無約束模型代入受約束模型(5.1.2)的OLS解br=(X1X1)-1X1Y ,可得 br=(X1X1)-1X1(X1 1+X2 2+ 1) = 1+(X1X1)-1X1X2 2+ (X1X1)-1X1 1 于是: E(br|X1)= 1+Q1 2+ (X1X1)-1X1E( 1|X1) = 1+Q1 2因此,只有當(dāng) 2=0或X1與X2正交時,才有E(br|X1)= 1 2 2、遺漏相關(guān)變量、遺漏相關(guān)變量(omitting variables) Question: What happen if

9、 we omit relevant variable? 方差:方差:由于 br-E(br|X1)= (X1X1)-1X1 1 則: Var(br|X1)=Ebr-E(br|X1) br-E(br|X1) = (X1X1)-1X1E( 1 1)X1(X1X1)-1 =2(X1X1)-1 換言之,如果X2是Y的相關(guān)解釋變量,且與X1非正交,則略去X2的回歸模型對參數(shù)的估計是有偏誤的,稱為省略變量偏誤省略變量偏誤(omitted variable bias)。Theorem: Var(br)Var(b1)。其中b1為無約束回歸Y=X1 1+X2 2+ 1中對應(yīng)于 1的估計量。Proof: 由受約束模

10、型的參數(shù)估計量 br=b1+Q1b2得 b1=br-Q1b2 Var(b1)=Var(br)+Q1Var(b2)Q1-2Cov(br,b2)Q1 Q1Var(b2)Q1是半正定的,只需證明Cov(br,b2)=0已知 br-E(br|X1)= (X1X1)-1X1 1又由 Y=X1b1+X2b2+e1 得 M1Y=M1X1b1+M1X2b2+M1e1=M1X2b2+e1 X2M1Y=X2M1X2b2+X2e1=X2M1X2b2這里用到了:M1X1=0, M1e1=e1, X2e1=0 于是 b2=(X2M1X2)-1X2M1Y E(b2|X)= 2+(X2M1X2)-1X2M1E( 1|X)=

11、 2于是: b2-E(b2)=(X2M1X2)-1X2M1 1 Cov(b2,br)=Eb2-E(b2)br-E(br) =E(X2M1X2)-1X2M1 1(X1X1)-1X1 1 = (X2M1X2)-1X2M1E( 1 1)X1(X1X1)-1 =2(X2M1X2)-1X2M1X1(X1X1)-1 =0將 Y=X1 1+X2 2+ 1 代入b2得 b2=(X2M1X2)-1X2M1(X1 1+X2 2+ 1) = 2+(X2M1X2)-1X2M1 1遺漏相關(guān)變量問題:遺漏相關(guān)變量問題:有偏,方差變小,導(dǎo)致t檢驗值變大,容易將本不該納入模型的變量納入模型。3 3、多選無關(guān)變量、多選無關(guān)變量

12、(redundant variables) 如果正確模型是受約束模型 Y=X1 1+ 2 (5.1.2)而我們卻對無約束模型 Y=X1 1+X2 2+ 1 (5.1.1)進(jìn)行回歸,即模型中多選了無關(guān)變量X2。 b1是 1的無偏估計。或 b1=br-Q1b2無論是否有 2=0, 始終有Var(b1) Var(br)設(shè)正確的受約束模型(5.1.2)的估計結(jié)果為br,則有 br= b1+ Q1b2多選無關(guān)變量問題:多選無關(guān)變量問題:無偏,但方差變大,即是無效的。變大的方差導(dǎo)致t檢驗值變小,容易拒絕本該納入模型的變量。5.2 多重共線性多重共線性 一、多重共線性一、多重共線性(multicolline

13、arity) 多重共線性多重共線性,或簡稱共線共線(collinearity),意即多元回歸中解釋變量間存在相關(guān)性。 多重共線性有完全共線性完全共線性(perfect multicollinearity)與近似共線性近似共線性(approximate multicollinearity)兩種情況。 如果存在完全共線,則Rank(X)k+1,XX的逆不存在,OLS估計無法進(jìn)行。 如果存在近似共線性,則不違背經(jīng)典假設(shè),OLS估計量仍是無偏一致的估計量,但方差往往較大。 1 1、估計量的方差、估計量的方差 在離差形式的二元二元線性樣本回歸模型中: yi=b1x1i+b2x2i+e 一般地,在多元回歸

14、中,記 Y=X1 1+X2 2+ 特別地,假設(shè)X2=(Xk1, Xkn),即為X中的最后一列 由于曾經(jīng)得到 b2= 2+(X2M1X2)-1X2M1 1因此 Var(b2)= (X2M1X2)-1X2M1E( 1 1)M1X2(X2M1X2)-1 =2(X2M1X2)-1這里,X2M1X2恰為如下輔助回歸輔助回歸的殘差平方和殘差平方和SSR X2=X1B+v于是: Var(b2)=2/SSR表明:第k個解釋變量參數(shù)估計量的方差,由 模型隨機(jī)擾動項的方差2 第k個解釋變量的樣本方差SXk2 第k個解釋變量與其他解釋變量的相關(guān)程度Rk2 樣本容量n四個方面的因素決定。 四個因素四個因素共同影響著b

15、j方差的大小。Rj2為Xj關(guān)于其他解釋變量這一輔助回歸輔助回歸的決定系數(shù)決定系數(shù)1/(1-Rj2)稱為方差膨脹因子方差膨脹因子(variance inflation factor) 2 2、多重共線性問題、多重共線性問題“ The consequences of multicollinearity are that the sampling distribution of the coefficient estimators may have large variances that the coefficient estimates are unstable from sample to s

16、ample. Thus they may be too unreliable to be use” (Judge) 估計量不準(zhǔn)確,j的樣本估計值可能會遠(yuǎn)離真值 置信區(qū)間大,關(guān)于j的不同的假設(shè)都可能被接受,bj可能不會顯著地異于“任何”假設(shè) t檢驗值變小,可能將重要的變量排除在模型之外 使區(qū)間預(yù)測的“區(qū)間”變大,使預(yù)測失去意義。由多重共線性引起的大方差將導(dǎo)致:由多重共線性引起的大方差將導(dǎo)致: 注意:注意: 除非是完全共線性,多重共線性并不意味著任何基本假設(shè)的違背;因此,OLS估計量仍是最佳線性無偏估計量(BLUE)。 問題在于問題在于,即使OLS法仍是最好的估計方法,它卻不是“完美的”,尤其是在

17、統(tǒng)計推斷上無法給出真正有用的信息。 3 3、何時需要多重共線性、何時需要多重共線性 多重共線性可能使單個的j不準(zhǔn)確,卻可使若干參數(shù)的組合更準(zhǔn)確。 假設(shè)總體回歸方程為 E(Y)=0+1X1+2X2 記 =1+2,則其樣本估計量為 t=b1+b2于是: Var(t)=Var(b1)+Var(b2)+2Cov(b1,b2)在離差形式下,記22122121iiiiiixxxxxxxx特別地,取于是12221iixxrxxxxxxiiiiii 2221212111rrxx1111)(21rrrxx因此 Var(b1)=Var(b2)=2/(1-r2) Cov(b1,b2) = -2r/(1-r2)Var

18、(t)=22/(1-r2)-2r/(1-r2)=22(1-r)/(1-r2)=22/(1+r)如果r=0,無共線性:Var(b1)=Var(b2)=2 Var(t)=22 可見,較強(qiáng)的共線性使得1、2的估計量的方差較大,從而對它們各自的估計變得不準(zhǔn)確性確; 但卻使1、2的組合1+2的估計量的方差變小,因此使該組合的估計變得更準(zhǔn)確。如果r = 0.9,有強(qiáng)共線性: Var(b1)=Var(b2)=2/(1-0.92)=2/0.19=5.32 Var(t)=22 /(1+0.9)=22/1.9=1.0525.3 廣義最小二乘估計廣義最小二乘估計Generalized Least Squares E

19、stimation一、廣義經(jīng)典回歸模型一、廣義經(jīng)典回歸模型 Generalized Classical Regression Model 對經(jīng)典回歸模型,將假設(shè)假設(shè)5改為如下假設(shè):Assumption 6: |XN(0, 2V), where 0 2 is unknown and V=V(X) is a known nn finite and positive definite matrix: E(i|X)=0 Var(i|X)=2Vii(X) Cov(i, j|X)=2Vij(X) 注意:注意: (1) 假設(shè)6意味著 Var( |X)=E(|X)=2V=2V(X) (2) 假設(shè)6允許存在條件

20、異方差條件異方差(conditional heteroskedasticity) (3) 允許V可以是非對角陣,即cov(i,j|X)可以不為零 上述假設(shè)下的回歸模型稱為上述假設(shè)下的回歸模型稱為廣義經(jīng)典回歸模型廣義經(jīng)典回歸模型(Generalized Classical Regression Model, GCRM)二、最小二乘估計二、最小二乘估計 Least Squares Estimation 對多元線性回歸模型 Y=X + 仍可記其OLS估計為 b=(XX)-1XY這時,殘差項為 e=MY=M 顯然: E(b|X)=(XX)-1XX +E( |X)= Var(b|X)=(XX)-1XVa

21、r(Y|X)(XX)-1X =(XX)-1XVar( |X)(XX)-1X =2(XX)-1XV(XX)-1XOLS估計b仍無偏,但其方差矩陣不再是一標(biāo)量2與矩陣(XX)-1的乘積。另外,E(e|X)=ME( |X)=0 Var(e)=MVar( |X)M=2MVM于是 E(ee)=trVar(e)=2tr(MVM)=2tr(MMV)=2tr(MV)由于 MV=(I-P)V=V - X(XX)-1XV而 trX(XX)-1XV=tr(XX)-1XVX于是 tr(MV)=tr(V)-tr(XX)-1XVX該式可方便地計算MV的跡。顯然,該期望不等于真值 Var(b)= 2(XX)-1XV(XX)

22、-1X = 2(XX)-1(XVX)(XX)-1 表明:表明: 傳統(tǒng)的b的方差的OLS估計是有偏的,傳統(tǒng)的標(biāo)準(zhǔn)差也不再是對估計精確程度的正確測度,從而傳統(tǒng)的置信區(qū)間以及假設(shè)檢驗都已不再適用。如何解決問題?如何解決問題? 1.以傳統(tǒng)的b為 的估計量,但需尋找b的正確的方差矩陣; 2. 直接尋找 的更好的估計量。注意:注意: 在CR模型Y=X + 滿足基本假設(shè)1、3、6條件下,其OLS估計b具有:(i) 無偏性: E(b|X)= (ii) 方差: Var(b)=2(XX)-1XVX(XX)-1 2(XX)-1但在 min(XX) (n)的條件下,Var(b)0 表明b依均方收斂于 ,因此仍是一致估

23、計量一致估計量(iii) b- |XN(0, 2(XX)-1XVX(XX)-1)(iv) Cov(b, e|X)=0三、廣義最小二乘估計三、廣義最小二乘估計 Generalized Least Squares (GLS) estimation引理:引理:對任何對稱正定矩陣V,總有非奇異矩陣C,使得 V-1=CCTheorem: 對GCR模型,在假設(shè)1、3、6下, 的廣義最小二乘(GLS)估計為 b*=(XV-1X)-1XV-1Y proof: 對原模型 Y=X + 由于V已知,總可以找到可逆矩陣C,使V-1=CC用C左乘原模型得 CY=CX +C 記為: Y*=X* + * (*) 其中,Y*

24、=CY, X*=CX, *=C 由于 E( *|X)=E(C |X)=CE( |X)=0 Var( *|X)=Var(C |X)=CE( |X)C= 2CVC = 2C(CC)-1C= 2I因此,(*)式滿足CR模型的基本假設(shè),其OLS估計為 b*=(X*X*)-1X*Y*=(XCCX)-1XCCY =(XV-1X)-1XV-1Yb*稱為 的廣義最小二乘估計廣義最小二乘估計(Generalized Least Square (GLS) estimator)由于b*滿足所有CR模型的基本假設(shè),因此有:注意:注意:(1) t檢驗與F檢驗以GLS估計量b*為基礎(chǔ); 如對 H0:R =r, F檢驗為

25、F=(r-Rb*)R(X*X*)-1R-1(r-Rb*)/(Js2)(2) 由于GLS估計b*是BLUE,故OLS估計b不是BLUE(3) 實踐中,V往往并不已知,因此GLS實際實施有困難。(i) E(b*|X)= (ii) Var(b*|X)=2(X*X*)-1(iii) Cov(b*,e*|X)=0, where e*=Y*-X*b*(iv) the GLS b* is BLUE(v) E(s*2|X)=2, where s*2= e*e*/(n-k-1)四、可行的廣義最小二乘法四、可行的廣義最小二乘法(Feasible GLS)注意:注意: (1)這里bF*的有限樣本分布不同于b*的有限

26、樣本分布,因為后者以V已知為前提。 為了看清這一點(diǎn),回顧以前所學(xué)內(nèi)容: 在CNR模型中: t=(bj-j)/sbj 與 z=(bj-j)/bj有著相同的漸近分布,即N (0,1)。 Replacing an unknown parameter by a consistent estimator may make the statistic feasible to calculate without affecting the asymptotic distribution. 為了得到可用于FGLS的V的一致估計,仍可使用Y對X的OLS回歸的殘差項e,因為V=Var( ), 其中 =Y-X ,且

27、e=Y-Xb。 但,如何使用該殘差項,V的估計的質(zhì)量能否保證FGLS與GLS具有相同的漸近分布,還取決于V的結(jié)構(gòu)。 通常情況下,V含有n(n+1)/2個未知數(shù),在只有n 個樣本的情況下,對其估計幾乎是不可能的,只有在V的某些特殊結(jié)構(gòu)下,才能對其進(jìn)行估計。 注意:注意: 在第一種解決方案中,即“以傳統(tǒng)的b為 的估計量,尋找b的正確的方差矩陣”這一方案中。關(guān)鍵是尋找Var(b|X)的一致估計量。但這時傳統(tǒng)的t檢驗與F檢驗是不能使用的,因為它們以Var(b|X)的正確設(shè)定為基礎(chǔ)。 然而,如果尋找到了Var(b|X)的一致估計量,則可通過它得到修正的t檢驗與F檢驗。當(dāng)然,這里使用的只能是漸近分布。5.

28、4 異方差與自相關(guān)性異方差與自相關(guān)性Heteroskedasticity and Autocorrelation 異方差異方差與自相關(guān)自相關(guān)是廣義經(jīng)典回歸廣義經(jīng)典回歸(GCR)模型的兩種特殊情況。 一、異方差一、異方差(Pure Heteroskedasticity) Y=X + 其中: E( |X)=0, Var( |X)=E(|X)=V=diag12,n2 1 1、廣義最小二乘法(、廣義最小二乘法(GLS) 對一個OLS估計: Y=Xb+e b是 的無偏且一致的估計,e可視為對 的估計,于是,原模型的一個FGLS估計為: 由于這時易知 C=diag1/|e1|, 1/|e2|,1/|en|

29、該FGLS估計相當(dāng)于用C左乘原模型,得加權(quán)模型: CY=CX +C 因此,該方法也稱為加權(quán)最小二乘法加權(quán)最小二乘法(weighted least squares)2 2、普通最小二乘法、普通最小二乘法(OLS) 由于原模型的OLS估計是無偏的,只是非有效的,因此,也可采用第一種方法:仍取OLS估計量,但修正相應(yīng)的方差。 我們知道,原模型OLS估計b的正確的方差距陣是 Var(b|X)=(XX)-1XV(XX)-1X = (XX)-1(Xdiagi2X)(XX)-1但V或者說i2并不知道,仍需估計。在只有n個樣本的情況下要求n 個i2也是困難的。 White (1980)指出,問題的關(guān)鍵并非是求

30、i2而是求 XVX=Xdiagi2X于是,當(dāng)仍用OLS估計原模型得到:b=(XX)-1XY這也被稱為異方差穩(wěn)鍵推斷異方差穩(wěn)鍵推斷(heteroskedasticity-robust inference) 因此,我們?nèi)钥蛇M(jìn)行OLS估計,并用上述異方差異方差一致標(biāo)準(zhǔn)誤一致標(biāo)準(zhǔn)誤進(jìn)行統(tǒng)計推斷。這時無論是否存在異方差性,以其為基礎(chǔ)的t檢驗與F檢驗都是漸近有效的。如F檢驗為: 兩個關(guān)鍵性問題:兩個關(guān)鍵性問題: (1) OLS估計b的標(biāo)準(zhǔn)誤的傳統(tǒng)估計值與正確估計值之間的差別是什么? (2) 正確的OLS標(biāo)準(zhǔn)誤與GLS標(biāo)準(zhǔn)誤之間的差別又是什么?蒙特卡羅試驗(Davidson and MacKinnon, 1

31、993) : Yi=1+Xi+ui uiN(0, Xi)Xi為0,1間的均勻分布,為一可取任何值的參數(shù) 20,000個樣本下的試驗結(jié)果如下: 參數(shù)估計的標(biāo)準(zhǔn)誤參數(shù)估計的標(biāo)準(zhǔn)誤 OLS截距 GLS OLS斜率 GLS False True 截距 False True 斜率0.5 0.164 0.134 0.110 0.285 0.277 0.2431.0 0.142 0.101 0.048 0.246 0.247 0.1732.0 0.116 0.074 0.0073 0.200 0.220 0.1093.0 0.100 0.064 0.0013 0.173 0.206 0.056結(jié)論性說明:結(jié)

32、論性說明: 對截距,不正確的OLS標(biāo)準(zhǔn)誤大于正確值; 對斜率,除=0.3外,正確的OLS標(biāo)準(zhǔn)誤與不正確的值差別很?。?OLS的非有效性,可通過正確的標(biāo)準(zhǔn)誤與GLS估計的標(biāo)準(zhǔn)誤之間的對比顯示出來。 3 3、異方差性檢驗、異方差性檢驗 圖示法 Park、 Gleiser檢驗 Goldfeld-Quandt檢驗 White檢驗 二、自相關(guān)二、自相關(guān)(autoregressive Process)其中,ui是滿足以下經(jīng)典的OLS假定: E(u|X)=0, Var(u|X)=E(uu|X)=u2I Y=X + p階階自相關(guān)自相關(guān)往往可寫成如下形式: i=1i-1+2i-2+ pi-p+ ui -1j1

33、對于上述(V)nn,顯然有n(n+1)/2個未知數(shù),在只有n個樣本點(diǎn)的情況下,要對其估計是困難的。因此,還需對自相關(guān)做某種結(jié)構(gòu)上的假定。 最常用的是假設(shè)隨機(jī)擾動項呈現(xiàn)1 1階自相關(guān)階自相關(guān): i=i-1+ ui -111、廣義最小二乘法、廣義最小二乘法(GLS)這時, CVC=u2I用C左乘原矩陣得: CY=CX +C (*)于是 E(C |X)=CE( |X)=0 Var(C |X)=CE( |X)C= 2CVC=u2I因此,(*)式的OLS估計,或原式的GLS估計為 b*=(XCCX)-1XCCY=(XV-1X)-1XV-1Y 注意:注意: (*)式相當(dāng)于下面的變換: Y*=CY, X*=

34、CX 例如,由于i=i-1+ui,可用原模型的OLS估計的殘差ei 代替i得ei=ei-1+ui,再對該式進(jìn)行OLS估計,得由于是i與i-1的自相關(guān)系數(shù),即 =Cov(i,i-1)/Var(i)顯然,在 ei為i的估計的情況下,殘差的樣本矩是相應(yīng)總體矩的一致估計量。 2 2、一階差分法、一階差分法 對 Yi=0+1X1i+kXki+i (i=1,n),在i=i-1+ui的情形下,可做如下1 1階差分階差分變換: Yi-Yi-1=0(1-)+1(X1i-X1i-1)+k(Xki-Xki-1)+ui (i=2,n)用OLS法可估計該式,但它只是GLS估計的一個近似,因此其有效性不及包含第1個觀測值

35、的GLS估計,該估計量被稱為Cochrane-Orcutt估計量。 3 3、廣義差分法、廣義差分法 其中: Yi*=Yi-(1Yi-1+pYi-p) Xji*=Xji-(1Xji-1+pXji-p) (i=p+1,n; j=1,k)如果原模型的隨機(jī)擾動項呈現(xiàn)高階自相關(guān): i=1i-1+2i-2+pi-p+ui可用OLS法估計該式,得 Cochrane-Orcutt估計量,但它同樣只是GLS估計的一個近似。當(dāng)n時,其極限分布為GLS估計的分布。 4 4、估計自相關(guān)系數(shù)、估計自相關(guān)系數(shù) 在用差分法實際進(jìn)行估計時,無論是1階自相關(guān),還是高階自相關(guān)的情形,都需首先估計自相關(guān)系數(shù)??梢韵扔肙LS法估計原

36、模型,得殘差項ei,1階或高階自相關(guān)系數(shù)可通過下面式子估計: ei=ei-1+ui ei=1ei-1+2ei-2+pei-p+ui當(dāng)然,還有其他估計自相關(guān)系數(shù)的方法,如: Cochrane-Orcutt迭代法、Durbin兩步法等。5 5、OLS估計的性質(zhì)估計的性質(zhì) 為簡單,只考察無截距一元回歸、1階自相關(guān)的情形: Yi=Xi+i i=i-1+ui |0,則高估2,將導(dǎo)致低估1。仍然是非一致的(也是有偏的)。一個參數(shù)估計的非一致性往往傳遞給其他參數(shù)一個參數(shù)估計的非一致性往往傳遞給其他參數(shù)。 例1:在上述存在測量誤差的一元模型中: Plim(b1)= 1+ E(Xii)/Var(Xi)=1 -1

37、v2/Var(Xi*+vi) =11-v2/(x*2+v2) 例2,在上述Keynesian模型中 首先,容易寫出如下簡化式簡化式(reduced form)模型: Yi=0/(1-1)+1/(1-1)Ii+1/(1-1)i Ci=0/(1-1)+1/(1-1)Ii+1/(1-1)i于是: plimb1=1+Cov(Yi,i)/Var(Yi)而 Var(Yi)=Var1/(1-1)Ii+1/(1-1)i =1/(1-1)2(I2+2)因此: plimb1=1+(1-1)2/(I2+2) 二、工具變量估計二、工具變量估計(The Instrumental Variable Estimator) 對一般的線性回歸模型 Y=X + 其OLS估計量為: b=(XX)-1XY= +(XX)-1X 如果Plim(XX/n) =Qxx是一滿秩有限矩陣 ,Plim(X /n)=E(X ) 0,則

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論