人臉識(shí)別核心算法技術(shù)資料_第1頁(yè)
人臉識(shí)別核心算法技術(shù)資料_第2頁(yè)
人臉識(shí)別核心算法技術(shù)資料_第3頁(yè)
免費(fèi)預(yù)覽已結(jié)束,剩余1頁(yè)可下載查看

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

1、人臉識(shí)別核心算法技術(shù)在檢測(cè)到人臉并定位面部關(guān)鍵特征點(diǎn)之后,主要的人臉區(qū)域就可以被裁剪出來(lái),經(jīng)過(guò)預(yù)處理之后,饋入后端的識(shí)別算法。1、在檢測(cè)到人臉并定位面部關(guān)鍵特征點(diǎn)之后,主要的人臉區(qū)域就可以被裁剪出來(lái),經(jīng)過(guò) 預(yù)處理之后,饋入后端的識(shí)別算法。 識(shí)別算法要完成人臉特征的提取,并與庫(kù)存的已知人臉進(jìn)行比對(duì),完成最終的分類。我們?cè)谶@方面的主要工作包括:基于LGBP的人臉識(shí)別方法問題:統(tǒng)計(jì)學(xué)習(xí)目前已經(jīng)成為人臉識(shí)別領(lǐng)域的主流方法,但實(shí)踐表明,基于統(tǒng)計(jì)學(xué)習(xí)的方法往往會(huì)存在“推廣能力弱”的問題,尤其在待識(shí)別圖像“屬性”未知的情況下,更難以確定采用什么樣的訓(xùn)練圖像來(lái)訓(xùn)練人臉模型。鑒于此,在對(duì)統(tǒng)計(jì)學(xué)習(xí)方法進(jìn)行研究的同

2、時(shí),我們還考慮了非統(tǒng)計(jì)模式識(shí)別的一類方法。思路:對(duì)于給定的人臉圖像,LGBP方法首先將其與多個(gè)不同尺度和方向的Gabor濾波器卷積(卷積結(jié)果稱為 Gabor特征圖譜)獲得多分辨率的變換圖像。 然后將每個(gè)Gabor特征圖譜劃 分成若干互不相交的局部空間區(qū)域, 對(duì)每個(gè)區(qū)域提取局部鄰域像素的亮度變化模式,并在每個(gè)局部空間區(qū)域內(nèi)提取這些變化模式的空間區(qū)域直方圖,所有Gabor特征圖譜的、所有區(qū)域的直方圖串接為一高維特征直方圖來(lái)編碼人臉圖像。并通過(guò)直方圖之間的相似度匹配技術(shù)(如直方圖交運(yùn)算)來(lái)實(shí)現(xiàn)最終的人臉識(shí)別。在FERET四個(gè)人臉圖像測(cè)試集合上與FERET97的結(jié)果對(duì)比情況見下表。由此可見,該方法具有

3、良好的識(shí)別性能。而且LGBP方法具有計(jì)算速度快、無(wú)需大樣本學(xué)習(xí)、推廣能力強(qiáng)的優(yōu)點(diǎn)。表丄GBP方法與FERET97最佳結(jié)果的對(duì)比情況對(duì)比算法各測(cè)試子集合性能宿選正確識(shí)別率)FBFCDup 1DupII我們的莫法性能若一5弘SW_9%73.8%心預(yù)0%52-0%基于AdaBoost的Gabor特征選擇及判別分析方法人臉描述是人臉識(shí)別的核心問題之一,人臉識(shí)別的研究實(shí)踐表明:在人臉三維形狀信息難以準(zhǔn)確獲取的條件下,從圖像數(shù)據(jù)中提取多方向、多尺度的Gabor特征是一種合適的選擇。 使用Gabor特征進(jìn)行人臉識(shí)別的典型方法包括彈性圖匹配方法(EGM和Gabor特征判別分類法(GFC。 EGM在實(shí)用中需要解

4、決關(guān)鍵特征點(diǎn)的定位問題,而且其速度也很難提高;而 GFC則直接對(duì)下采樣的 Gabor特征用PCA降維并進(jìn)行判別分析,盡管這避免了精確定位關(guān)鍵 特征點(diǎn)的難題,但下采樣的特征維數(shù)仍然偏高,而且簡(jiǎn)單的下采樣策略很可能遺漏了非常多的有用特征。摘要:針對(duì)上述問題,我們考慮如何對(duì)Gabor特征進(jìn)行有效降維,將目前受到極大關(guān)注的AdaBoost算法創(chuàng)新性的應(yīng)用于 Gabor特征的選擇上來(lái),用于提取對(duì)識(shí)別最有利的特征(我 們稱這些選擇出來(lái)的 Gabor特征為AdaGabor特征),并最終通過(guò)對(duì) AdaGabor特征的判別分 析實(shí)現(xiàn)識(shí)別(稱該方法為AGFC識(shí)別方法)。在CAS-PEAL和FERET人臉圖像庫(kù)上的

5、對(duì)比實(shí)驗(yàn) 表明:AGFC方法不但可以大大降低 Gabor特征的維數(shù)從而可以更加有效地避免“維數(shù)災(zāi)難 問題”,降低了計(jì)算復(fù)雜度,同時(shí)識(shí)別精度也有了較大的提高。將AGFC與 EGM GFC進(jìn)一步比較可以看出:無(wú)論是 EGM還是GFC均是主觀的選擇若干面部關(guān)鍵特征點(diǎn)提取人臉的特征 表示,而我們提出的 AGFC方法則是通過(guò)機(jī)器學(xué)習(xí)的方法自動(dòng)的選擇那些對(duì)區(qū)分不同人臉具 有關(guān)鍵作用的Gabor特征。參見下圖所示三者之間的區(qū)別與聯(lián)系。三種不同的人臉建模方法比較示意圖基于SV的Kernel判別分析方法sv-KFD摘要:支持向量機(jī)(SVM和Kernel Fisher分析是利用kernel方法解決線性不可分問題的

6、兩 種不同途徑,我們將二者進(jìn)行了有機(jī)結(jié)合。我們首先證明了 SVM最優(yōu)分類面的法向量在基于 支持向量的類內(nèi)散度矩陣的前提下具有零空間性質(zhì),基于此定義了核化的決策邊界特征矩陣(Kernelized Decision Boundary Feature Matrix,簡(jiǎn)寫為 KDBFM,最后利用基于零空間的Kernel Fisher方法計(jì)算投影空間。我們還進(jìn)一步提出了融合類均值向量差及KDBFM來(lái)構(gòu)建擴(kuò)展的決策邊界特征矩陣(EKDBFM的方法,并把這兩種方法成功地應(yīng)用到了人臉識(shí)別領(lǐng)域,在FERET和CAS-PEAL數(shù)據(jù)庫(kù)的實(shí)驗(yàn)結(jié)果表明該方法比傳統(tǒng)人臉識(shí)別算法具有更好 的識(shí)別性能?;谔囟ㄈ四樧涌臻g的人

7、臉識(shí)別方法Eigenface是人臉識(shí)別領(lǐng)域最著名的算法之一,本質(zhì)上是通過(guò) PCA來(lái)求取人臉圖像分布的線性子空間, 該空間從最佳重構(gòu)的角度反映了所有人臉圖像分布的共性特征,但對(duì)識(shí)別而言,這樣的特征卻未必有利于識(shí)別,識(shí)別任務(wù)需要的是最大可能區(qū)分不同人臉的特征。摘要:“特征臉”方法中所有人共有一個(gè)人臉子空間, 而我們的方法則為每一個(gè)體人臉建立一 個(gè)該個(gè)體對(duì)象所私有的人臉子空間,從而不但能夠更好的描述不同個(gè)體人臉之間的差異性, 而且最大可能地?cái)P棄了對(duì)識(shí)別不利的類內(nèi)差異性和噪聲, 因而比傳統(tǒng)的“特征臉?biāo)惴ā本哂?更好的判別能力。 另外, 針對(duì)每個(gè)待識(shí)別個(gè)體只有單一訓(xùn)練樣本的人臉識(shí)別問題,我們提出了一種基

8、于單一樣本生成多個(gè)訓(xùn)練樣本的技術(shù), 從而使得需要多個(gè)訓(xùn)練樣本的個(gè)體人臉子空 間方法可以適用于單訓(xùn)練樣本人臉識(shí)別問題。在 Yale Face DatabaseB 人臉庫(kù)對(duì)比實(shí)驗(yàn)也表 明我們提出的方法比傳統(tǒng)的特征臉方法、 模板匹配方法對(duì)表情、 光照、和一定范圍內(nèi)的姿態(tài) 變化具有更優(yōu)的識(shí)別性能。2、人體面貌識(shí)別技術(shù)包含三個(gè)部分:( 1) 人體面貌檢測(cè)面貌檢測(cè)是指在動(dòng)態(tài)的場(chǎng)景與復(fù)雜的背景中判斷是否存在面像,并分離出這種面像。 一般有下列幾種方法: 參考模板法首先設(shè)計(jì)一個(gè)或數(shù)個(gè)標(biāo)準(zhǔn)人臉的模板, 然后計(jì)算測(cè)試采集的樣品與標(biāo)準(zhǔn)模板之間的匹配 程度,并通過(guò)閾值來(lái)判斷是否存在人臉; 人臉規(guī)則法由于人臉具有一定的

9、結(jié)構(gòu)分布特征, 所謂人臉規(guī)則的方法即提取這些特征生成相應(yīng)的規(guī) 則以判斷測(cè)試樣品是否包含人臉; 樣品學(xué)習(xí)法這種方法即采用模式識(shí)別中人工神經(jīng)網(wǎng)絡(luò)的方法, 即通過(guò)對(duì)面像樣品集和非面像樣品集 的學(xué)習(xí)產(chǎn)生分類器; 膚色模型法這種方法是依據(jù)面貌膚色在色彩空間中分布相對(duì)集中的規(guī)律來(lái)進(jìn)行檢測(cè)。 特征子臉法這種方法是將所有面像集合視為一個(gè)面像子空間, 并基于檢測(cè)樣品與其在子孔間的投影 之間的距離判斷是否存在面像。值得提出的是,上述 5 種方法在實(shí)際檢測(cè)系統(tǒng)中也可綜合采用。(2)人體面貌跟蹤面貌跟蹤是指對(duì)被檢測(cè)到的面貌進(jìn)行動(dòng)態(tài)目標(biāo)跟蹤。 具體采用基于模型的方法或基于運(yùn) 動(dòng)與模型相結(jié)合的方法。此外,利用膚色模型跟蹤

10、也不失為一種簡(jiǎn)單而有效的手段。( 3)人體面貌比對(duì)面貌比對(duì)是對(duì)被檢測(cè)到的面貌像進(jìn)行身份確認(rèn)或在面像庫(kù)中進(jìn)行目標(biāo)搜索。 這實(shí)際上就 是說(shuō), 將采樣到的面像與庫(kù)存的面像依次進(jìn)行比對(duì),并找出最佳的匹配對(duì)象。所以,面像的 描述決定了面像識(shí)別的具體方法與性能。目前主要采用特征向量與面紋模板兩種描述方法:特征向量法該方法是先確定眼虹膜、鼻翼、嘴角等面像五官輪廓的大小、位置、距離等屬性,然后 再計(jì)算出它們的幾何特征量,而這些特征量形成一描述該面像的特征向量。面紋模板法該方法是在庫(kù)中存貯若干標(biāo)準(zhǔn)面像模板或面像器官模板, 在進(jìn)行比對(duì)時(shí), 將采樣面像所 有象素與庫(kù)中所有模板采用歸一化相關(guān)量度量進(jìn)行匹配。此外,還有

11、采用模式識(shí)別的自相關(guān)網(wǎng)絡(luò)或特征與模板相結(jié)合的方法。人體面貌識(shí)別技術(shù)的核心實(shí)際為“局部人體特征分析”和“圖形 / 神經(jīng)識(shí)別算法。”這 種算法是利用人體面部各器官及特征部位的方法。 如對(duì)應(yīng)幾何關(guān)系多數(shù)據(jù)形成識(shí)別參數(shù)與數(shù) 據(jù)庫(kù)中所有的原始參數(shù)進(jìn)行比較、判斷與確認(rèn)。一般要求判斷時(shí)間低于1 秒。3、人體面貌的識(shí)別過(guò)程一般分三步:(1)首先建立人體面貌的面像檔案。即用攝像機(jī)采集單位人員的人體面貌的面像文件 或取他們的照片形成面像文件,并將這些面像文件生成面紋( Faceprint )編碼貯存起來(lái)。( 2)獲取當(dāng)前的人體面像即用攝像機(jī)捕捉的當(dāng)前出入人員的面像, 或取照片輸入, 并將當(dāng)前的面像文件生成面紋 編碼。(3)用當(dāng)前的面紋編碼與檔

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論