邏輯回歸模型分析報告見解_第1頁
邏輯回歸模型分析報告見解_第2頁
邏輯回歸模型分析報告見解_第3頁
已閱讀5頁,還剩3頁未讀 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權,請進行舉報或認領

文檔簡介

1、1. 邏輯回歸模型1.1邏輯回歸模型考慮具有p個獨立變量的向量,設條件概率為根據(jù)觀測量相對于某事件發(fā)生的概率。邏輯回歸模型可表示為. ; ( 1.1)上式右側(cè)形式的函數(shù)稱為稱為邏輯函數(shù)。下圖給出其函數(shù)圖象形式。其中二-。如果含有名義變量,則將其變?yōu)閐ummy變量。個具有k個取值的名義變量,將變?yōu)?k-1個dummy變量。這樣,有定義不發(fā)生事件的條件概率為1(1.3)那么,事件發(fā)生與事件不發(fā)生的概率之比為戶(工二|力二F二護代P("O|x)-p(1.4)這個比值稱為事件的發(fā)生比(the odds of experiencing an event),簡稱為odds。因為0<p<

2、;1,故odds>0。對odds取對數(shù),即得到線性函數(shù),呵(:-島8用-"+:一.6州- .'( 1.5)1.2極大似然函數(shù)假設有n個觀測樣本,觀測值分別為 】匚設一-:-為給定條件下得到一 的概率。在同樣條件下得到二-1的條件概率為 = 0|)=1-。于是,得到一個觀測值的概率為口打 /'( 1.6)因為各項觀測獨立,所以它們的聯(lián)合分布可以表示為各邊際分布的乘積。/(Q二fl加計1 班勁7(1.7)上式稱為n個觀測的似然函數(shù)。我們的目標是能夠求出使這一似然函數(shù)的值最大的參數(shù)估 計。于是,最大似然估計的關鍵就是求出參數(shù)必二小上',使上式取得最大值。對上述

3、函數(shù)求對數(shù).1I( 1.8)上式稱為對數(shù)似然函數(shù)。為了估計能使匸取得最大的參數(shù)的值。對此函數(shù)求導,得到 p+1個似然方程。j.i(1.9)Vrj=1,2,.,p.上式稱為似然方程。為了解上述非線性方程,應用牛頓拉斐森(Newton-Raphson)方法進行 迭代求解。1.3 牛頓拉斐森迭代法對二,1求二階偏導數(shù),即 Hessian矩陣為二心碼(1 羽)J-1(1.10)如果寫成矩陣形式,以H表示Hessian矩陣,X表示耳1?邯(1.11 )令: - (1(1.12 )u =1殆1%-W4*切*則袈。再令9»11和-%a(注:前一個矩陣需轉(zhuǎn)置 ),即似然方程的矩陣形式。Av得牛頓迭代

4、法的形式為(1.13)注意到上式中矩陣H為對稱正定的,求解二 即為求解線性方程HX = U中的矩陣X。對H進行cholesky 分解。最大似然估計的漸近方差(asymptotic varianee)和協(xié)方差(covarianee)可以由信息矩陣(information matrix)的逆矩陣估計出來。而信息矩陣實際上是川二階導數(shù)的負值,8乜(肉/ 二 1斥表示為疔:。估計值的方差和協(xié)方差表示為- ',也就是說,估計值的方差為矩陣I的逆矩陣的對角線上的值,而估計值-;和- 的協(xié)方差為除了對角線以外的值。然而在多數(shù)情況,我們將使用估計值"的標準方差,表示為2上'】忙 -,

5、for j=o,1,2,p (1.14 )2. 顯著性檢驗下面討論在邏輯回歸模型中自變量 'i是否與反應變量顯著相關的顯著性檢驗。零假設 '* = 0 (表示自變量 '對事件發(fā)生可能性無影響作用)。如果零假設被拒絕,說明事件發(fā)生可能性依賴于、的變化。2.1 Wald testWald檢驗,其公式為對回歸系數(shù)進行顯著性檢驗時,通常使用(2.1 )爲磁(&)F其中, 浪紗為A 的標準誤差。這個單變量 Wald統(tǒng)計量服從自由度等于1的分布。如果需要檢驗假設 匚:止:匚;'?。? 0,計算統(tǒng)計量肛二刖磁(夕)F(2.2 )其中,:為去掉所在的行和列的估計值,相應

6、地,為去掉 所在的行和列的標 準誤差。這里, Wald統(tǒng)計量服從自由度等于 p的分布。如果將上式寫成矩陣形式,有(2.3)矩陣Q是第一列為零的一常數(shù)矩陣。例如,如果檢驗',則然而當回歸系數(shù)的絕對值很大時,這一系數(shù)的估計標準誤就會膨脹,于是會導致Wald統(tǒng)計值變得很小,以致第二類錯誤的概率增加。也就是說,在實際上會導致應該拒絕零假設時卻未能拒絕。所以當發(fā)現(xiàn)回歸系數(shù)的絕對值很大時,就不再用 Wald統(tǒng)計值來檢驗零假設,而應該使用似然比檢驗來代替。2.2 似然比(Likelihood ratio test )檢驗在一個模型里面,含有變量與不含變量的對數(shù)似然值乘以-2的結(jié)果之差,服從分布。這一

7、檢驗統(tǒng)計量稱為似然比(likelihood ratio),用式子表示為G = -2fa(不含石似然) 含有召似然丿(2.4)計算似然值采用公式(1.8 )。倘若需要檢驗假設=0,計算統(tǒng)計量(2.5 )+>i Ji'.! .1-4 JiF昇-呻咸1上式中, 表示I =0的觀測值的個數(shù),而 表示丄 1的觀測值的個數(shù),那么 n就表示 所有觀測值的個數(shù)了。實際上,上式的右端的右半部分'.-1 ;1 _- 表示只含有的似然值。統(tǒng)計量 G服從自由度為p的;分布2.3 Score 檢驗在零假設"1 : - = 0下,設參數(shù)的估計值為-工,即對應的"=0。計算Scor

8、e統(tǒng)計 量的公式為(2.6 )上式中,.山:;表示在"=0下的對數(shù)似然函數(shù)(1.9 )的一價偏導數(shù)值,而:學 表示在一=0下的對數(shù)似然函數(shù)(1.9 )的二價偏導數(shù)值。Score統(tǒng)計量服從自由度等于1的 / 分布。2.4 模型擬合信息模型建立后,考慮和比較模型的擬合程度。有三個度量值可作為擬合的判斷根據(jù)。(1) -2LogLikelihood簡寫為AIC)(2) Akaike 信息準則(Akaike In formation Criterio n.AlC = -2LogL+2(K+S)(2.8)S=2-1=1。其中K為模型中自變量的數(shù)目,S為反應變量類別總數(shù)減1,對于邏輯回歸有-2Lo

9、gL的值域為0至二,其值越小說明擬合越好。當模型中的參數(shù)數(shù)量越大時,似然值也就越大,-2LogL就變小。因此,將2(K+S)加到AIC公式中以抵銷參數(shù)數(shù)量產(chǎn)生的影響。在其它條件不變的情況下,較小的AIC值表示擬合模型較好。(3) Schwarz 準則這一指標根據(jù)自變量數(shù)目和觀測數(shù)量對-2LogL值進行另外一種調(diào)整。SC指標的定義為SC 二-2 必四+2(K+S)恤(2.9)其中l(wèi)n(n)是觀測數(shù)量的自然對數(shù)。這一指標只能用于比較對同一數(shù)據(jù)所設的不同模型。在 其它條件相同時,一個模型的AIC或SC值越小說明模型擬合越好。3. 回歸系數(shù)解釋3.1發(fā)生比odds=p/(1-p)率(odds rati

10、 on).Y(1)連續(xù)自變量。對于自變量,每增加一個單位,odds rati on 為(3.1)(2)二分類自變量的發(fā)生比率。變量的取值只能為0或1,稱為dummy variable。當 i 取值為1,對于取值為0的發(fā)生比率為(3.2)亦即對應系數(shù)的幕。(3)分類自變量的發(fā)生比率。如果一個分類變量包括 m個類別,需要建立的dummyvariable的個數(shù)為m-1,所省略的那個類另U稱作參照類 (reference category) 。設 dummy variable為,其系數(shù)為照類,其發(fā)生比率為1。3.2邏輯回歸系數(shù)的置信區(qū)間對于置信度1-亠,參數(shù) 的100% (1 - _:)的置信區(qū)間為上

11、式中,:為與正態(tài)曲線下的臨界乙值(critical valueA為系數(shù)估計代的以-£席x s卷A+迓x翌標準誤差,.和f ft-'兩值便分別是置信區(qū)間的下限和上限。當樣本較大時,= 0.05水平的系數(shù)-:的95%置信區(qū)間為A±1 河%( 3.4 )4. 變量選擇4.1 前向選擇(forward select ion 一次一個地加入模型。):在截距模型的基礎上,將符合所定顯著水平的自變量(1)具體選擇程序如下常數(shù)(即截距)進入模型。(2)(3)根據(jù)公式(2.6 )計算待進入模型變量的Score檢驗值,并得到相應的P值。找出最小的p值,如果此p值小于顯著性水平,則此變量

12、進入模型。如果此變量 是某個名義變量的單面化 (dummy)變量,則此名義變量的其它單面化變理同時也進入模型。 不然,表明沒有變量可被選入模型。選擇過程終止。(4) 回到(2)繼續(xù)下一次選擇。4.2后向選擇(backward selection ):在模型包括所有候選變量的基礎上,將不符合保留 要求顯著水平的自變量一次一個地刪除。具體選擇程序如下(1)所有變量進入模型。 根據(jù)公式(2.1 )計算所有變量的 Wald檢驗值,并得到相應的p值。(3) 找出其中最大的p值,如果此P值大于顯著性水平、則此變量被剔除。對于某個名義變量的單面化變量,其最小p值大于顯著性水平,則此名義變量的其它單面化變量也

13、 被刪除。不然,表明沒有變量可被剔除,選擇過程終止。(4) 回到(2)進行下一輪剔除。4.3 逐步回歸(stepwise selection)(1)基本思想:逐個引入自變量。每次引入對Y影響最顯著的自變量,并對方程中的老變量逐個進行檢驗,把變?yōu)椴伙@著的變量逐個從方程中剔除掉,最終得到的方程中既不漏掉對Y影響顯著的變量,又不包含對Y影響不顯著的變量。 篩選的步驟:首先給出引入變量的顯著性水平和剔除變量的顯著性水平“,然后按下圖篩選變量。乳7=工士 、 -2JY>、叫用丄I引小魚I(亦爲£J一亠-.-卽冷J. I(3)逐步篩選法的基本步驟逐步篩選變量的過程主要包括兩個基本步驟:一是

14、從不在方程中的變量考慮引入新變量的步驟;二是從回歸方程中考慮剔除不顯著變量的步驟。假設有p個需要考慮引入回歸方程的自變量. 設僅有截距項的最大似然估計值為二。對p個自變量每個分別計算Score檢驗值,設有最小p值的變量為-,且有“1 / 1,對于單面化(dummy)變量,也如此。若5 <血 ,則此變量進入模型,不然停止。如果此變量是名義變量單面化(dummy)的變量,則此名義變量的其它單面化變量也進入模型。其中為引入變量的顯著性水平。 為了確定當變量在模型中時其它p-1個變量也是否重要,將/ -分 別與進行擬合。對p-1個變量分別計算 Score檢驗值,其p值設為I。設有最小p值的 變量為,且有 二唄內(nèi)).若他 < 兔 ,則進入下一步,不然停止。對于單面化變量,其方式如同上步。 此步開始于模型中已含有變量< 與;I。注意到有可能在變量被引入后,變量2不再重要。本步包括向后刪除。根據(jù) (2.1)計算變量與:I的Wald檢驗

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論