版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領
文檔簡介
人臉識別的具體實現(xiàn)一個完整的人臉識別系統(tǒng)由以下幾個環(huán)節(jié)組成,人臉檢測,特征提取,和分類識別。人臉檢測即為從輸入的靜止圖像或序列圖像中檢測圖像是否包含人臉。因為本次實驗主要是驗證PCA和KNN算法的精度,所以選擇的圖像都是包含人臉的圖像。實驗中采用PCA算法對特征進行提取,用KNN算法對實驗結(jié)果進行檢測,測定測試圖像屬于哪個分類。在計算機中,一幅數(shù)字圖像可以看成是一個矩陣或者是一個數(shù)組,用,0力表示。其行列下標對應了圖像上的一個點,而在矩陣中對應相應元素,則標出了該點的灰度值。一幅nxm大小的圖像按行列相連構(gòu)成一個n*m維向量x=(bb…bbb…b…bb…b)「1112 1m2122 2mn1n2 nm,匕被視為空間中的一|點。人臉圖像樣本集可用矩陣X表示,其中,X=[X1X2…Xp],P為樣本集中人臉圖像的數(shù)量。交叉驗證當數(shù)據(jù)源不充足時,為了保證所建分類器的性能和錯誤率估計的準確性,交叉驗證技術常常被采用.在交叉驗證中,先要決定一個固定的重數(shù),或者說折數(shù).一般地,將重數(shù)定為k,這就是k重交叉驗證,記為k-CV.由于本次試驗中采集了40組圖像,每組10幀,數(shù)據(jù)源相對不充足,為了充分驗證算法的性能,分別采用了3-CV,4-CV,5-CV交叉驗證法,隨機選擇訓練樣例。實驗結(jié)果分析為了保證分類的健壯性,在試驗中在訓練集上采取交叉驗證的方法,分別從每組樣本中國隨機選取3,4,5張圖像作為訓練樣本,其余的樣本作為測試樣本。計算訓練樣本的特征向量。實驗中使用的圖像為1024*92大小的圖片,通過resize()函數(shù)的處理,把圖像變?yōu)?2*32
大小的圖像,把此圖像重置為1*1023的向量。當每組選擇3張訓練樣本時,訓練樣本矩陣大小為120*1024.,訓練樣本的大小為:280*1024。使用PCA方法得到了訓練樣本矩陣的特征值和特征向量,特征值按從大到小排序。較大特征值對應的一些正交基(也稱主分量)能夠表達人臉的大體形狀。貢獻率表示所定義的主成分在整個數(shù)據(jù)分析中承擔的主要意義占多大的比重,當取前r個主成分來代替原來全部變量時,累計貢獻率的大小反應了這種取代的可靠性,累計貢獻率越大,可靠性越大;反之,則可靠性越小。一般要求累計貢獻率達到70%以上。實驗中的貢獻率是通過選擇的特征值之和與總的特征值之和的比值來計算的,要求貢獻率達到98%21.bmp(1)KNN算法中近鄰個數(shù)的選擇5個, 分別為1,2,3時的情況表21.bmp(1)KNN算法中近鄰個數(shù)的選擇5個, 分別為1,2,3時的情況表5-1KNN算法中近鄰個維度-____--鄰近-0775七- -- 23維度” Z3.,豈口、?二鄰乂5.bmp n2^mp0/74528.bmp1n.nq0.775nqnrmo1 150.909050.9 0905\ 0.8350851?j20. 0935. 0935. 08725. 0945. 0945. 09130. 095. 095. 090535. \ 0955. \ 0955. 09240. 094. 0.94.j乙 0.91545. 0945 0945 091.nqr.nqr.ngo50550.95 \ 095| 0.95 \ 095| 0.9乙 09260. 095. 0.95.j乙 0.90565. 095 0.95 09170. 094 094. 090575. 094. 094. 090580. 0945. 0945. 0.905..0QI851 900.95 \095| 0.95 \ 0950.91091595. 095. 095. 0915JU100. 0955. 0955. 0.9151M.nQRR.nQRRngo110. 0955. 0955.7jLj 1 092115. 0955. 0955.j乙 0915117. 0955. 0955. 0.915AVERAGEC平均值). 0.9375. 0.9375 0.898125雖然很多文獻中提到,當近鄰數(shù)位1時,并不足以確定測試樣本的類別,因為數(shù)據(jù)中有噪聲和異常值。但在本次實驗中,通過結(jié)果我們可以看到實驗進度不受近鄰個數(shù)的影響。(2)交叉驗證次數(shù)的影響本次實驗中進行了5次交叉驗證,為論文測試交叉驗證的次數(shù)是否對實驗進行影響,我們采集了K=5,每組的訓練樣本為5時,CV變換的進度結(jié)果。表5-2交叉次數(shù)對進度的影響統(tǒng)計維度……一1234 550.820.7950.810.7650.775100.910.9050.8750.890.9150.9250.90.90.920.905200.9450.910.9050.90.935250.950.910.920.920.945300.9550.920.9150.9350.95350.9550.920.920.930.955400.9650.9250.920.930.94450.9650.9250.920.9350.945500.9650.9250.920.9350.95 550.970.930.9150.9350.95600.970.9250.930.9350.95650.970.9250.9250.9350.95700.970.9350.920.9350.94750.970.9350.920.9350.94800.970.940.9250.9450.945850.970.9350.920.9450.95900.970.9350.9250.9450.95950.9750.9350.9250.9450.951000.9750.9350.9250.9450.9551050.9750.9350.9250.950.9551100.9750.9350.9250.950.9551150.9750.9350.9250.950.9551170.975(118)0.935(116)0.9250.950.955STDEV(標準差:0.0339440.0294620.024890.0377060.037388通過上述實驗結(jié)果分析可知,在本次實驗中(1) 交叉驗證中CV的選擇和KNN中K的選擇對精度的影響不大;(2) 訓練樣本的數(shù)量和特征向量的數(shù)量與識別精度成正相關;(3) 但為了保證對全局的識別更加穩(wěn)定,我們需要選擇盡量高的CV次數(shù);(4) 為了識別精度和系統(tǒng)的運行速度,我們選擇的特征向量的數(shù)目為15到50個比較合理,訓練數(shù)目選擇3-5個比較合理。4.展望從壓縮能量的角度來看,K-L變換是最優(yōu)的,變換后的低維空間對于人臉有很好的表達能力,然而這并不等同于對不同人臉具有較好的判別能力。選擇訓練樣本的散布矩陣作為K.L變換的生成矩陣,其最大特征向量反映了該樣本集合的最大分布的方向,但這是圖像統(tǒng)計方法,而不是人臉統(tǒng)計方法。它查找的是圖像之間所有的差異,并根據(jù)這些差異來確定不同人臉間的距離,而不管這些差異是由于光線、發(fā)型或背景的改變引起的,還是屬于人臉本身的內(nèi)在差異,因此特征臉的方法用于人臉識別存在理論的缺陷。研究表明,特征連的方法隨著光線、角度以及人臉的尺寸的引入而識別率急劇下降。主分量的方法使得變換后的表達能力最佳,次分量的方法考慮了高頻的人臉區(qū)分能力,但是由于外在因素帶來圖像差異和人臉本身帶來的差異對K-L變換而言是不加任何區(qū)分的,因此,如何選擇正交基并不根本解決問題。改進的一個思路是針對干擾所在,對輸入圖像作規(guī)范化處理,包括輸入圖像的均值方差歸一化,人臉尺寸歸一化。另一種改進是考慮到局部人臉圖像受到外在干擾相對較小的情況,除了計算特征臉之外,還利用K-L變換計算出特征眼、特征嘴等。將局部特征向量加權(quán)進行匹配得到一些好的效果。5.代碼(1)%用pca方法進行降維矩陣,得到特征臉functiony=pca(mixedsig)ifnargin==0error('Youmustsupplythemixeddataasinputargument.');endiflength(size(mixedsig))>2error('Inputdatacannothavemorethantwodimensions.');endifany(any(isnan(mixedsig)))error('InputdatacontainsNaN''s.');endmeanValue=mean(mixedsig')';[m,n]=size(mixedsig);fors=1:mfort=1:nmixedsig(s,t)=mixedsig(s,t)-meanValue(s);endend[Dim,NumofSampl]=size(mixedsig);oldDimension=Dim;fprintf('Numberofsignals:%d\n',Dim);fprintf('Numberofsamples:%d\n',NumofSampl);fprintf('CalculatePCA...');firstEig=1;lastEig=Dim;covarianceMatrix=cov(mixedsig',1);[E,D]=eig(covarianceMatrix);rankTolerance=1e-5;maxLastEig=sum(diag(D))>=rankTolerance;lastEig=maxLastEig;lastEig=10;eigenvalues=flipud(sort(diag(D)));iflastEig<oldDimensionlowerLimitValue=(eigenvalues(lastEig)+eigenvalues(lastEig+1))/2;elselowerLimitValue=eigenvalues(oldDimension)-1;endlowerColumns=diag(D)>lowerLimitValue;iffirstEig>1higherLimitValue=(eigenvalues(firstEig-1)+eigenvalues(firstEig))/2;elsehigherLimitValue=eigenvalues(1)+1;endhigherColumns=diag(D)<higherLimitValue;selectedColumns=lowerColumns&higherColumns;fprintf('Selected[%d]dimensions.\n',sum(selectedColumns));fprintf('Smallestremaining(non-zero)eigenvalue[%g]\n',eigenvalues(lastEig));fprintf('Largestremaining(non-zero)eigenvalue[%g]\n',eigenvalues(firstEig));fprintf('Sumofremovedeigenvalue[%g]\n',sum(diag(D).大(?selectedColumns)));E=selcol(E,selectedColumns);D=selcol(selcol(D,selectedColumns)',selectedColumns);whiteningMatrix=inv(sqrt(D))*E';dewhiteningMatrix=E*sqrt(D);y=whiteningMatrix*mixedsig;functionnewMatrix=selcol(oldMatrix,maskVector)ifsize(maskVector,1)?=size(oldMatrix,2)error('Themaskvectorandmatrixareofuncompatiblesize.');endnumTaken=0;fori=1:size(maskVector,1)ifmaskVector(i,1)==1takingMask(1,numTaken+1)==i;numTaken=numTaken+1;endendnewMatrix=oldMatrix(:,takingMask);(2)%KNN方法計算準確率functioninfo=KNN(targetimage)temp=0;kind=[000];i=0;j=0;temp1=0;i1=0;s(1)=ComputSimilarity(HandGeoExtraction(targetimage),HandGeoExtraction('al.jpg'));s(2)=ComputSimilarity(HandGeoExtraction(targetimage),HandGeoExtraction('a2.jpg'));s(3)=ComputSimilarity(HandGeoExtraction(targetimage),HandGeoExtraction('a3.jpg'));s(4)=ComputSimilarity(HandGeoExtraction(targetimage),HandGeoExtraction('a4.jpg'));s(5)=ComputSimilarity(HandGeoExtraction(targetimage),HandGeoExtraction('a5.jpg'));s(6)=ComputSimilarity(HandGeoExtraction(targetimage),HandGeoExtraction('b1.jpg'));s(7)=ComputSimilarity(HandGeoExtraction(targetimage),HandGeoExtraction('b2.jpg'));s(8)=ComputSimilarity(HandGeoExtraction(targetimage),HandGeoExtraction('b3.jpg'));s(9)=ComputSimilarity(HandGeoExtraction(targetimage),HandGeoExtraction('b4.jpg'));s(10)=ComputSimilarity(HandGeoExtraction(targetimage),HandGeoExtraction('b5.jpg'));s(11)=ComputSimilarity(HandGeoExtraction(targetimage),HandGeoExtraction('c1.jpg'));s(12)=Co
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
- 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 2024年葡萄種植技術研發(fā)與成果轉(zhuǎn)化應用合同3篇
- 2024年集裝箱多式聯(lián)運合同范本3篇
- 創(chuàng)新驅(qū)動策略及實施路徑
- 2024年苗木種植基地與園林景觀設計公司合同范本3篇
- 2024年綜合服務外協(xié)承包合同版B版
- 信息化與智能化在職業(yè)教育中的應用
- 加強職業(yè)教育師資隊伍建設與能力提升策略
- 復合型拔尖創(chuàng)新人才的定義與特征
- 應用型創(chuàng)新人才培養(yǎng)的策略及實施路徑
- 2024幼兒園食堂泔水回收與環(huán)保產(chǎn)業(yè)合作合同3篇
- 《個案工作介入涉罪未成年人的家庭幫教研究》
- 統(tǒng)編版(2024新版)七年級上冊道德與法治期末綜合測試卷(含答案)
- 文化創(chuàng)意合作戰(zhàn)略協(xié)議
- 國家開放大學法學本科《商法》歷年期末考試試題及答案題庫
- 2024年婦保科工作總結(jié)及計劃
- (T8聯(lián)考)2025屆高三部分重點中學12月第一次聯(lián)考評物理試卷(含答案詳解)
- 北京理工大學《數(shù)據(jù)結(jié)構(gòu)與算法設計》2022-2023學年第一學期期末試卷
- 錨桿(索)支護工技能理論考試題庫200題(含答案)
- 影視后期制作團隊薪酬激勵方案
- 2024年有限合伙股權(quán)代持
- 廣東珠海市駕車沖撞行人案件安全防范專題培訓
評論
0/150
提交評論