基于WPT_PCA的特征級融合人臉識別方法_圖文_第1頁
基于WPT_PCA的特征級融合人臉識別方法_圖文_第2頁
基于WPT_PCA的特征級融合人臉識別方法_圖文_第3頁
基于WPT_PCA的特征級融合人臉識別方法_圖文_第4頁
基于WPT_PCA的特征級融合人臉識別方法_圖文_第5頁
已閱讀5頁,還剩6頁未讀 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權,請進行舉報或認領

文檔簡介

1、第31卷 第17期2009年9月武 漢 理 工 大 學 學 報JOURNAL OF WUHAN UNIVERSITY OF TECHNOLOGY Vo l. 31 N o. 17 Sep. 2009DOI:10. 3963/j. issn. 1671 4431. 2009. 17. 036基于WPT/PCA 的特征級融合人臉識別方法郭志強, 楊 杰, 柳步蔭(武漢理工大學信息工程學院, 武漢430070摘 要: 提出一種基于小波包和PCA 變換相結(jié)合的特征級融合人臉識別方法, 首先對人臉圖像進行二維小波包分解, 對分解后的低頻子圖進行P CA 分解, 得低頻主分量, 然后選取含有豐富人臉特征的

2、高頻子圖進行加權融合, 對融合后的高頻子圖再進行PCA 分解, 得高頻主分量, 最后對高低頻主分量進行融合處理, 得最終的鑒別特征。分別在O RL 和YaleA 人臉庫上進行試驗, 實驗結(jié)果表明該方法提高了識別率。關鍵詞: 小波包分解; 特征融合; 主成分分析中圖分類號: T P 391. 4文獻標識碼: A 文章編號:1671 4431(2009 17 0131 04Feature Fusion Face Recognition Based on WPT and PCAG UO Zhi qiang , YAN G J ie, LI U Bu y in(Schoo l of Infor mat

3、ion T echno logy, Wuhan U niversity of T echnolo gy, Wuhan 430070, ChinaAbstract: A method of feature fusion face recognition based on wavelet pack transfor m and principal component analysis is pro posed. First , each face images was decomposed into sixteen sub image by using two dimensio nal discr

4、 ete wavelet trans for m. , and then PCA w as using to ex tract the feature of low frequency sub image. Selecting the high frequency sub images in cluding abundant of human face info rmat ion to combined, then PCA w as using to extr act the feature of high frequency fusio n image. All the extr acted

5、 features were further fused and used fo r face classification. T he ex perimental on the ORL face database and YaleA face database show that the met hod can r each a higher recog nition rate.Key words: w avelet pack transfor m; feature fusion; pr inciple component analysis收稿日期:2009 04 14.基金項目:國家自然科

6、學基金(50775167 和湖北省科技攻關項目(No2007A101C52 . :( , , 博. E w hut. edu. 如何從人臉圖像中提取最有效的識別特征是人臉識別系統(tǒng)設計的關鍵。目前主要有2類方法:基于幾何特征提取方法和基于代數(shù)特征的提取方法。Buhr 1用圖示法和描述樹法提取出人臉的33個主要特征和12個次要特征, 并測試了其效性, 基于幾何的特征提取比較困難。Turk 和Pentland 2利用向量的KL 分解思想, 提出了著名特征臉的人臉識別方法, 開創(chuàng)了人臉圖像代數(shù)特征提取方法的先河。之后, Belhum eur 3提出了fisherface 人臉特征提取方法。上述2種方法

7、的優(yōu)點是利用了人臉圖像的整體特征, 特征提取較為容易, 但都需把圖像首先拉直成向量, 向量的維數(shù)往往很高, 這樣帶來的計算量很大, 而且會造成所謂的小樣本問題。CH IEN 等4 6提出的小波變換人臉識別方法, 則直接保留了代表圖像低頻信息的小波系數(shù), 達到了降維的目的。但這些算法的基本出發(fā)點是認為圖像的低頻部分代表了人臉的本質(zhì), 而高頻圖像代表了噪聲等冗余信息不利于人臉圖像的分類。事實上, 圖像的高頻部分不僅包含了光照、表情變化等冗余信息, 同時還包含了具有鑒別力的有用信息, 對提高人臉的識別率有重要作用。文中提出一種基于小波包分解的人臉特征提取方法, 既對圖像進行了降維, 又從圖像的高頻部

8、分提取出有鑒別力的信息, 有效地提高了識別率。1 人臉圖像的小波包分解正交小波變換的多分辨率分析, 只是對尺度空間進行分解, 而沒有對小波空間進行分解。作為小波變換的推廣, 小波包變換對小波空間進行了細分, 從而達到提高頻率分辨率的目的。圖像的小波包分解首先將原始圖像分解成1個低頻子圖和3個高頻子圖, 然后對4個子圖再進行小波分解, 與正交小波變換最大的區(qū)別就是不僅對低頻子圖進行分解, 同時還對高頻子圖進行分解。小波包的分解樹見圖1, 由此可見小波包分解是對圖像的多層次分解, 能對圖像的高頻成分進行細化, 有利于提取包含在高頻成分里的有用信息。圖2為一原始人臉圖像A , 2層小波包分解的得16

9、幅不同頻帶的子圖, 如圖3所示, 從左至右依次命名為A l 和A i h (i =1, 2, , 15 , 其中A l 為圖像的低頻分量, 代表了圖像的近似, A i h 為圖像的高頻分量代表了圖像的細 節(jié)。2 PCA 變換的人臉識別原理PCA 變換也稱KL 變換, 是模式識別中常用的降維方法。設有( 1, 2, , c c 個已知模式類別, 第i 類的訓練樣本數(shù)為n i , 全體訓練樣本數(shù)為n 。第i 類第j 個樣本B j i (i =1, 2, , c; j =1, 2, , n i , 為m n 的二維圖像, 把圖像拉直為M =m n 的一維向量x i (i =1, 2, , n 。定義

10、全體訓練樣本的協(xié)方差矩陣為C =n ! ni=1(x i - x (x i - x T =nT (1 其中 x 為所有訓練樣本的均值, 求協(xié)方差矩陣C 的所有特征值 i (i =1, 2, , M 和特征向量v i (i =1, 2, , M , 對特征向量從大到小排序 1 2 3 M , 選其前l(fā) (l M 個較大特征值對應的特征向量組成特征空間V =v 1, v 2, , v l , 則每個樣本圖像在特征空間的投影系數(shù)為y i =V T x i i =1, 2, , n(2 y i 的維數(shù)為l, 遠遠小于始原圖像向量x i 的維數(shù)M , 從而實現(xiàn)特征壓縮的目的。識別時將待測樣本投影到特征空

11、間, 待測樣本的特征向量, 然后用最鄰近法判別其所屬類別。3 特征融合人臉識別人臉識別面臨的一個基本的問題就是高維小樣本問題, 即訓練樣本的數(shù)量遠遠小于人臉的特征維數(shù), 從而形成了人臉圖像的類內(nèi)散布矩陣奇異。解決這一問題的思想是在盡可能不損失人臉識別信息的情況下, 對圖像向量進行降維處理。傳統(tǒng)的基于小波變換的人臉識別方法就是對人臉圖像進行小波分解, 保留其低頻成份, 然后再對低頻成分進行二次特征提取。這一方法的一個前提是認為, 圖像的高頻成分只代表了人臉圖像的光照、姿態(tài)、表情等的變化, 對人臉圖像的分類不利, 去掉高頻分量并不影響人臉的識別率。但吳7通過研究發(fā)現(xiàn), 人臉圖像的高頻同樣包含了具有

12、鑒別力的人臉信息, 因此完全放棄高頻成分實際上是放棄一部分具有鑒別力的信息, 從而會使識別率降低。觀點是:人臉圖像的高頻成分既含有包含有利于分類的人臉信息, 又有不利于分類的干擾信息?,F(xiàn)在的問題是如何從圖像的高頻成份中提取出有利于人臉識別的信息, 放棄不利于識別的干擾成分。從第1節(jié)知道, 小波包變換每次分解時不僅對上一次的低頻圖像進行分解, 同時也對高頻圖像進行分解, 實現(xiàn)對圖像的所有頻率分量都進一步細化, 從而可以利用小波包變換這一特性, 提取出有利于人臉分類的信息。如圖3所示, 原始圖像經(jīng)過2層小波包分解, 得到16個子圖像, 其中1號子, 132 武 漢 理 工 大 學 學 報 2009

13、年9月可以看出, 部分圖像仍保留較完整的人臉信息, 通過目測2至5號子圖人臉信息較完整, 其它圖像相對模糊, 部分圖像幾乎看不出臉形。因此, 認為2層小波包分解后, 第2至5號圖像仍包含有有利于分類的信息, 應當保留。為了從理論上說明這樣選擇的合理性, 引入一個相似度函數(shù)K q=! M i=1! N j =1A (i, j 2-A q (i , j 2 q =1, 2, , 16(3 其中, A (i, j 代表原圖像, A q (i , j 代表小波包分解各子圖像, 相似度函數(shù)的物理意義是各子圖與原圖的能量相似程度, 也就是各子圖與原人臉圖像的逼近程度。從式(3 中可以看出K q 的值越小表

14、示各子圖像與原圖像的相似度越大, 則認為子圖像包含的人臉信息越豐富。通過計算K q 值如表1所示, 從表1中可以看出隨著序號的增加在加大。綜合目測和相似度函數(shù)的計算結(jié)果, 選取1、2、3、4、5號子圖作為圖像的原始特征, 其中1號為圖像的低頻子圖, 包含了人臉的本質(zhì)特征, 2至5號子圖為圖像的高頻子圖, 也包含有助于提高識別率的信息。由于經(jīng)過2層小波包分解后, 各子圖的維數(shù)依然較高, 直接進行分類計算量較大, 所以對分解后的子圖需要進行降維處理。方法如下:對1號子圖采用PCA 進行降維, 得低頻子圖的主分量; 求2至5號子圖像加權平均圖像, 然后再對平均圖像進行PCA 降維, 得高頻子圖像的主

15、分量; 最后對高低頻圖像主分進行融合處理, 得最終的鑒別向量用于分類。綜上所述, 利用小波包分解的人臉識別算法的步驟如下:特征提取階段:1 對所有訓練樣本A 進行2層小波包分解得A l 與A q h , q =2, , 16; 2 采用式(4 求2至5號高頻子圖的加權平均圖像。A h = A 2h +! A 3h +A 4h +#A 5h , +! +#=1(4 3 分別對A l 、A h 進行PCA 變換, 得高頻子圖與低頻子圖的主分量Y l 與Y h ; 4 對Y l 與Y h 采用式進行融合處理, 融合公式如式(5 所示, 得最終的鑒別向量YY =Y l +(1- Y h (5識別階段:

16、1 對所有測試樣本B 進行2層小波包分解得B l 與B q h , q =2, , 16; 2 用式(4 求后2至5號高頻子圖的平均圖像; 3 分別對B l 、B h 進行PCA 變換, 得高頻子圖與低頻子圖的主分量Z l 與Z h ; 4 利用式(5 對Z l 與Z h 采用式進行融合處理, 得最終的鑒別向量Z ; 5 采用3階鄰近對測試樣本進行分類。由于該算法是先對圖像進行小波包分解, 先對低頻圖像進行PCA 變換, 然后對圖像高低頻圖像分別是PCA 變換, 因此稱其為WP2PCA, 相應的把對小波包分解, 只對低頻圖像進行PCA 變換, 用于識別的方法稱為WPPCA 。表1 K q 的計

17、算結(jié)果子圖序號12345678K q1. 14 1071. 69 1072. 40 1073. 42 1073. 76 1074. 59 1075. 49 1075. 62 107子圖序號910111213141516K q 6. 14 1076. 45 1077. 25 1078. 24 1079. 26 1079. 83 10711. 22 10712. 08 1074 仿真實驗與分析在Pentium(R 4CPU 2. 4GHz, 256M 內(nèi)存, Window s XP 操作系統(tǒng), Matlab7. 0環(huán)境下進行了仿真實驗。其中選取參數(shù), =! =#=0. 25, =0. 5, 分類器

18、采用3階鄰近作為準則, 距離為歐氏距離。分別在ORL 與YaleA 人臉庫上對PCA 、WPPCA 、WP2PCA 進行了識別率的測試。實驗1 ORL 數(shù)據(jù)庫ORL 數(shù)據(jù)庫包含了40個不同人臉, 每人10幅圖像, 共400幅圖像, 每幅圖像的大小為112 92, 該庫包含了不同時間, 不同視角, 不同表情(閉眼、睜眼、微笑、吃驚、生氣、憤怒、高興 和不同臉部細節(jié)(戴眼鏡、沒戴眼鏡、有胡子、沒胡子、不同發(fā)型 的條件下拍攝的, 數(shù)據(jù)庫部分人臉圖像如圖4 所示。在ORL 每類訓練樣本取5, 對應的測試樣本分別取5, 抽取和特征維數(shù)(即對應的投影空間向量數(shù) 分別133第31卷 第17期 郭志強, 楊

19、杰, 柳步蔭:基于WPT /PCA 的特征級融合人臉識別方法為10、20、30、40、50、60、70、80、90、100、110、120, 采用3階鄰近法進行分類。采用PCA 、WPPCW 、WP2PCA 3種方法隨識別率隨特征維數(shù)的變化曲線如圖5所示。從實驗結(jié)果可以看出,WP2PCA 的識別率開始小于PCA 與WPCA, 但當特征維數(shù)超過50時, WPWPA 的識別率達到并逐漸超過PCA 與WPPCA,其最高識別達88. 5%, 超過了PCA 的88%和WPPCA 的87. 5%。實驗2 YaleA 庫YaleA 庫由15個不同的人, 每個人11幅圖像組成, 包含了較大的光照和表情的變化,

20、 對該庫通過雙眼定位, 提取人臉部分, 并把每一幅圖像歸一化到46 58, 部分圖像如圖6 所示。在YaleA 每類訓練樣本取6, 對應的測試樣本分別取5, 抽取和特征維數(shù)(即對應的投影空間向量數(shù) 分別為5、10、15、20、25、30、35、40、45、50, 采用PCA 、WPPCW 、WP2PCA 3種方法隨識別率隨特征維數(shù)的變化曲線如圖7所示。從實驗結(jié)果可以看出, WPPCA 與WP2PCA 的最高識別率都高PCA 近2%, 盡管WP2PCA 與WPPCA 的最高識別率都為90. 7%, 但WP2PCA比WPPCA 的優(yōu)勢是當特征維數(shù)為15時就達到最高識別率90. 7%, 而WPPCA

21、 當特征維數(shù)為20時, 才達到最識別率90. 7%。隨著特征維數(shù)的增加, 3種方法的識別率都呈下降趨勢, 這也說明隨著特征維數(shù)的增加, 一些冗余信息也隨之增加,從而使識別率下降。5 結(jié) 語提出了基于小波包與PCA 分解相結(jié)合的特征級融合人臉識別方法, 該方法與傳統(tǒng)小波變換人臉識別主要區(qū)別是于充分利用了圖像的高頻信息, 利用小波包對高頻分量細化的特點, 提取出有助于提高識別率的高頻分量。利用高頻分量的有效信息與低頻分量的特征進行融合, 從而達到提高識別率的目的。通過在ORL 與YaleA 人臉庫的測試, 證明了方法的有效性, 尤其在YaleA 人臉庫中, 最高識別率比PCA 高近2%點, 表明該方法對光照有較的魯棒性。需要指出的是, 在實驗時對融合參數(shù)的選擇只取了直接平均, 如果在對參數(shù)進行有優(yōu)化選擇, 還會取得更好的實驗結(jié)果。當然, 如何自適應的獲取最佳的融合參數(shù), 是今后需要繼續(xù)研究的問題。參考文獻1 Buhr R. Alalyze und Classification Von GesichtsbidernJ.NtzArchtv , 1986, 8(10 :245 256.2 T ur k M , Pentland A. Face A rocessing :A M odels for RecognitionJ. Proc I ntelli

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論