指靜脈識別技術(shù)研究綜述_第1頁
指靜脈識別技術(shù)研究綜述_第2頁
指靜脈識別技術(shù)研究綜述_第3頁
指靜脈識別技術(shù)研究綜述_第4頁
指靜脈識別技術(shù)研究綜述_第5頁
已閱讀5頁,還剩19頁未讀 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

指靜脈識別技術(shù)研究綜述劉偉業(yè),魯慧民,李玉鵬,馬寧.指靜脈識別技術(shù)研究綜述[J].計算機科學(xué),2022,49(6A):1-11.相似文章推薦(請使用火狐或IE瀏覽器查看文章)Similararticlesrecommen基于多尺度特征的腦腫瘤分割算法計算機科學(xué),2022,49(6A):12-16./10.11896/jsjkx.210700217計算機科學(xué),2022,49(6A):17-21./10.11896/jsjkx.210400150基于深度學(xué)習(xí)的黑色素瘤智能診斷多模型算法計算機科學(xué),2022,49(6A):22-26./10.11896/jsjkx.210500197計算機科學(xué),2022,49(6A):93-99./10.11896/jsjkx.210500047基于動量的映射式梯度下降算法計算機科學(xué),2022,49(6A):178-183./10.11896/jsjkx.210500039http:/www.jsjkx.com指靜脈識別技術(shù)研究綜述劉偉業(yè)魯慧民李玉鵬馬寧長春工業(yè)大學(xué)計算機科學(xué)與工程學(xué)院長春130102摘要指靜脈識別因其具有活體識別、高安全性、內(nèi)部特征等技術(shù)優(yōu)勢,已成為生物特征識別領(lǐng)域的研究熱點之一.文中首先闡述了指靜脈識別技術(shù)的基本原理及研究現(xiàn)狀,然后針對指靜脈識別過程中的主要技術(shù),包括圖像采集、傳統(tǒng)識別方法中的圖像預(yù)處理、特征提取、特征匹配,以及基于深度學(xué)習(xí)的指靜脈識別,結(jié)合相關(guān)理論研究逐階段展開論述,并對代表性的識別算法進行了概括、分析和評述.此外,全面梳理并詳細介紹了指靜脈識別領(lǐng)域常用的公開數(shù)據(jù)集,以及識別系統(tǒng)的相關(guān)技術(shù)評價指標(biāo),總結(jié)了指靜脈識別研究尚存的主要問題,并提出了可行的解決方案,最后對指靜脈識別未來的研究方向進行了展望,為后續(xù)指靜脈識別的發(fā)展提供研究思路.關(guān)鍵詞:生物特征識別;指靜脈識別;圖像處理;特征提取;深度學(xué)習(xí)中圖法分類號TP391SurveyonFingerVeinRecognitionResearchLIUWeiGye,LUHuiGmin,LIYuGpengandMANingSchoolofComputerScienceandEngineering,ChangchunUniversityofTechnology,Changchun130102,ChinaAbstractFingerveinrecognitionhasbecomeoneofthemostpopularresearchhotpotsinthefieldofbiometricsbecauseofitsuniquetechnicaladvantagessuchaslivingbodyrecognition,highsecurityandinnerfeatures.Firstly,thispaperintroducestheprinciple,merits,andcurrentresearchstatusoffingerveinrecognition,thenmakingthetimeastheclue,sortsoutthedevelopGly,focusingoneachprocessoffingerveinrecognition,thispaperexpoundsonthecriticaltechniquesincludingimageacquisition,imagepreprocessing,feacommonlyusedpublicdatasetsandtherelatedevaluationmetricsinthisfieldareintroduced.Thirdly,thispapersummarizestheexistingresearchproblems,proposesthecorrespondingfeasiblesolutions,andpredictsthefutureresearchdirectionoffingerveinrecognition.Somenewideasinthefollowingstudiesforresearchersareprovidedattheend.KeywordsBiometrics,Fingerveinrecognition,Imageprocessing,Featureextraction,Deeplearning在數(shù)字化、信息化融合發(fā)展的時代,人們對個人信息的保護意識不斷加強.傳統(tǒng)的身份認證技術(shù)如磁卡、證件、密碼等身份標(biāo)識存在易丟失、易盜取、易復(fù)制等問題,這對個人身份信息的高安全性、高保密性需求提出了嚴峻的考驗.生物特征識別利用人自身固有的身體特征作為身份認證標(biāo)識,解決了傳統(tǒng)身份認證技術(shù)的一系列安全問題.第一代生物識別技術(shù)如指紋識別[1]、人臉識別[2]、虹膜識別[3]等已成功應(yīng)用于諸多現(xiàn)實場景,如手機指紋鎖、刷臉支付、機場虹膜安檢等,但它們在方便生活的同時仍存在一定的不足之處,如指(掌)紋等表面特征易損壞、易盜取,人臉識別條件容易受限、特征不夠穩(wěn)定,虹膜采集不夠便利、存在潛在的用戶侵犯性,聲音識別對環(huán)境要求高、特征不夠穩(wěn)定等等,均對識別結(jié)果有不同程度的影響.指靜脈識別技術(shù)是對采集到的指靜脈近紅外圖像提取出靜脈特征,然后與特征庫進行模式匹配,從而達到身份識別認證的目的.因其具備活體識別、內(nèi)部特征等優(yōu)勢,與指紋識別等第一代生物識別技術(shù)相比,其安全等級更高,穩(wěn)定性更好且難以進行特征偽造,身份認證更加高效,因此被稱為第二代生物識別技術(shù).本文第2節(jié)概述了指靜脈識別技術(shù)的基本原理,并對其獨特的識別優(yōu)勢進行了說明;第3節(jié)對指靜脈識別的發(fā)展歷史以及國內(nèi)外在該領(lǐng)域的研究現(xiàn)狀進行了梳理;第4節(jié)匯總介紹了指靜脈采集裝置的設(shè)計原理并總結(jié)了部分采集設(shè)備的結(jié)構(gòu)特性;第5節(jié)論述了傳統(tǒng)指靜脈識別方法具體的實現(xiàn)過程及其代表性算法;第6節(jié)闡述了基于深度學(xué)習(xí)的代表性指靜脈識別算法的原理及其特點;第7節(jié)全面梳理并詳細介紹了指靜脈領(lǐng)域國內(nèi)外的公開數(shù)據(jù)集,及相關(guān)的技術(shù)評價指標(biāo);最后總結(jié)全文并展望未來.基金項目:吉林省科技廳2020年度吉林省科技發(fā)展計劃項目重點研發(fā)項目(20200401103GX)ThisworkwassupportedbytheKeyResearchandDevelopmentProgramofJilinProvincialScienceandTechnologyDevelopmentPlanin2020(20200401103GX).通信作者:魯慧民(luhuimin@ccut.edu.cn)2ComputerScience計算機科學(xué)Vol.49,No.6A,June20222指靜脈識別技術(shù)簡介2.1識別原理及優(yōu)勢人體手指靜脈血管中的血紅蛋白可以吸收特定波長的近紅外光.經(jīng)實驗研究表明,當(dāng)近紅外光的波長為700~1000nm時,血紅蛋白對近紅外光的吸收效果較好.根據(jù)該特性,使用近紅外LED光源照射手指,通過CMOS或CCD成像傳感器進行采集,即可得到具有明暗區(qū)分的指靜脈圖像.指靜脈識別相比指紋識別、人臉識別等具有更高的安全性、更低的誤識率和更復(fù)雜的應(yīng)用場景.不僅如此,指靜脈識別還具備以下獨特優(yōu)勢:1)活體識別,指靜脈識別利用活體指靜脈流動血液中的血紅蛋白吸收別[4],無法通過人工手段偽造指靜脈特征;2)內(nèi)部特征,手指靜脈位于手指內(nèi)部的皮下組織中,皮膚表面的水跡、污漬、疤痕等不會影響其特征分布,具有穩(wěn)定性;3)唯一性,經(jīng)相關(guān)醫(yī)學(xué)研究證實,對不同人而言,不存在兩根手指有相同的靜脈分布,對個人而言,不同手指的靜脈分布也不相同;4)非接觸式,采集認證時,可以做到手指無需與設(shè)備表面接觸即可完成識別,有效避免衛(wèi)生安全問題,減輕用戶使用負擔(dān),尤其對近年爆發(fā)的全球疫情來說,這更具有十分重要的意義.2.2識別流程指靜脈識別的主要流程包括指靜脈圖像的采集與預(yù)處理、指靜脈特征的提取與特征匹配.圖1給出了指靜脈識別的整體流程.圖1指靜脈識別的流程圖Fig.1Flowchartoffingerveinrecognition圖像采集的途徑主要有:使用指靜脈圖像采集設(shè)備自建數(shù)據(jù)集、獲取公開數(shù)據(jù)集;預(yù)處理需要進行感興趣區(qū)域(ReGgionofInterest,ROI)提取、歸一化、特征增強等操作,突出特征顯示;特征提取的作用是將靜脈特征與背景區(qū)域分割,提取出靜脈紋路或紋理等特征;隨后將提取到的特征圖像注冊輸入特征模板庫;在特征匹配階段,結(jié)合相似性度量等匹配算法對輸入圖像進行分類識別.3指靜脈識別研究現(xiàn)狀分析日本自20世紀(jì)90年代開始進行靜脈識別相今指靜脈識別技術(shù)在日本已比較成熟.柯達公司的JosephRice最早開展靜脈識別技術(shù)研究,于1990年發(fā)明了手背靜脈特征識別技術(shù),并將其命名為“Veincheck”[5].Kono等于2000年首次提出將指靜脈特征用于身份認證[6],并于2002年采集了678人的指靜脈圖像,通過背景降噪過濾器增強靜脈特征,旋轉(zhuǎn)校正圖像之后,使用互相關(guān)的歸一化最大值來量化兩靜脈特征之間的相似性,成功對678人完成了身份識別[7].Miura等于2004年[8]基于指靜脈圖像局部灰度差異,提出了重復(fù)線性跟蹤(RepeatedLineTracking,RLT)算法,逐像素跟蹤提取靜脈曲線;2007年[9]又通過尋找圖像局部橫切面曲率的最大值,提出了最大曲率(MaximumCurvature,MC)算法用于提取指靜脈特征,這兩種算法成為了指靜脈特征提取領(lǐng)域的兩大經(jīng)典算法.除日本之外,韓國等亞洲國家和一些歐美國家也提出了很多指靜脈識別算法.針對特征提取與識別研究,2009年,韓國的Lee等[4]基于指靜脈細節(jié)點特征,提出了一種細節(jié)點對齊的識別算法;2011年,韓國的Song等[10]根據(jù)指靜脈圖像灰度分布的幾何形狀,通過尋找谷形結(jié)構(gòu)的負平均曲率點來提取指靜脈特征;2014年,馬來西亞的Asaari等[11]對獲取到的指靜脈ROI圖像使用修正高斯濾波器(ModifiedGaussianFilter,MGF)提取靜脈紋路特征,并使用帶限相位相關(guān)法(BandLimitedPhaseOnlyCorrelation,BLPOC)判別特征相似性,在識別階段提出了寬度質(zhì)心輪廓距離(WidthCentroidContourDistance,WCCD)的幾何特征,與靜脈紋路特征融合進行匹配識別;2015年,希臘的Vlachos等[12]對指靜脈ROI圖像分區(qū)域使用MumFordShah模型增強靜脈特征,采用局部熵閾值化(LocalEntropyThresholding)方法對增強后的靜脈特征進行二值分割,提取靜脈紋路,形態(tài)學(xué)操作用于消除冗余信息,平滑特征.2015年之前的指靜脈識別主要運用圖像處理、統(tǒng)計學(xué)等方法,并與識別相結(jié)合,我們稱其為傳統(tǒng)方法.2015年之后,隨著深度學(xué)習(xí)方法的快速發(fā)展及其在計算機視覺領(lǐng)域的成功應(yīng)用,“深度學(xué)習(xí)+指靜脈識別”方法逐漸成為該領(lǐng)域的熱點.2016年,馬來西亞的Radzi等[13]采用4層的簡單CNN分別在50個對象和80個對象的小樣本數(shù)據(jù)集上進行測試,取得了較高的識別率;2018年,意大利的Das等[14]提出了一個10層的CNN,分別在4個公開數(shù)據(jù)集上進行訓(xùn)練,識別率均在95%以上;2020年,韓國的Noh等[15]采用DenseNetG161分別對指靜脈紋理圖像和指靜脈形狀圖像進行訓(xùn)練,將兩個CNN的輸出分數(shù)進行融合,用于識別.3.2國內(nèi)研究現(xiàn)狀中國相比日韓等國家,在指靜脈識別領(lǐng)域起步較晚,但經(jīng)過十多年的研究和發(fā)展,如今我國已成為指靜脈識別領(lǐng)域較為領(lǐng)先的國家之一,研究成果頗豐.從清華大學(xué)的林喜榮團隊,到之后包括山東大學(xué)、哈爾濱工程大學(xué)、中國民航大在內(nèi)的諸多高校和研究機構(gòu)提出的一系列指靜脈識別算法,指靜脈識別設(shè)備,我國在該領(lǐng)域已占有一席之地.2003年,清華大學(xué)的Lin等[16]利用近紅外血管圖像采集儀提取手背靜脈圖像,通過提取靜脈的端點和交叉點實現(xiàn)了特征匹配,這是國內(nèi)公認的最早關(guān)于靜脈識別的研究.2008年劉偉業(yè),等:指靜脈識別技術(shù)研究綜述3開始,我國在指靜脈識別領(lǐng)域的研究進入了快速發(fā)展時期.在預(yù)處理和特征提取階段,2008年,重慶工學(xué)院的Yu等[17]基于靜脈橫截面的灰度值呈谷型分布的特點,提出了多方向凹形區(qū)間灰度提取方法,結(jié)合小波去噪實現(xiàn)靜脈特征提取;2011年,哈爾濱工程大學(xué)的Wang等[18]使用方向濾波器提取靜脈紋路特征,并運用八鄰域方法進行細化,提取出靜脈細節(jié)點特征并根據(jù)細節(jié)點間的相對距離進行特征匹配;2013年,山東大學(xué)的Yang等[19]提出了基于滑動窗口的ROI定位,通過計算局部窗口內(nèi)灰度的最大值來確定手指關(guān)節(jié)的位置,進而確定ROI高度.在特征匹配階段,2013年山東大學(xué)的Yang等[20]針對同一手指不同樣本的二值編碼,將各個比匹配;2017年,中國民航大學(xué)的Yang等[21]基于分段靜脈(SpatialCurveFilters,SCFs),用于提取靜脈曲線,使用靜脈向量場(VeinVectorField,VVF)描述靜脈變化方向,最配;2019年,華南理工大學(xué)的Kang等[22]將指靜脈圖像背景層中的強度分布作為軟生物特征,與前景層中的主靜脈信息融合以實現(xiàn)特征匹配;2020年,洛陽師范等[23]通過基于對抗的方式,對靜脈模式圖像中缺失的細節(jié)點進行了恢復(fù)補全;2021年,山東財經(jīng)大學(xué)的Meng等[24]對基于全局細節(jié)點特征的提取方法進行改進,提出了基于區(qū)域的細節(jié)點匹配方法.與全局方法相比,分塊提不僅如此,我國在基于深度學(xué)習(xí)的指靜脈識別領(lǐng)域也貢獻出了許多優(yōu)秀的研究成果.2018年,華南理工大學(xué)的Hu等[25]提出了一種CNN模型,用于提取包含空間信息的指靜脈特征;2019年,商湯科技的Lu等[26]基于預(yù)訓(xùn)練的CNN模der),與LBP,Gaborfilter等相比,CNNGCO對線性特征的響der),與LBP,Gaborfilter等相比,CNNGCO對線性特征的響應(yīng)更好,能夠提取更細微的指靜脈特征;2020年,黑龍江大學(xué)的Zhao等[27]提出了一種輕量級CNN模型,用于快速指靜脈識別,使用中心損失函數(shù)最小化類內(nèi)樣本差距,改進的正則化方法避免了網(wǎng)絡(luò)過擬合問題.4指靜脈圖像采集4.1采集設(shè)備結(jié)構(gòu)設(shè)計現(xiàn)有的指靜脈采集設(shè)備形式多樣,但基本的采集結(jié)構(gòu)可1)直射式:此種成像裝置一般為封閉式結(jié)構(gòu),優(yōu)點是成像質(zhì)量較高,設(shè)計相對簡單;缺點是裝置體積較大,且封閉的設(shè)計結(jié)構(gòu)會讓用戶產(chǎn)生心理抗拒.2)反射式:此種設(shè)計的優(yōu)點是采集裝置可以小型化;缺點是開放式的結(jié)構(gòu)易受環(huán)境光干擾,成像質(zhì)量較差.3)側(cè)透式:此方式的優(yōu)點是成像質(zhì)量相比反射式要高,采集裝置相比直射式更緊湊,但裝置設(shè)計較為復(fù)雜,同時易受環(huán)境光影響.(a)直射式(b)反射式(c)側(cè)透式圖2指靜脈采集設(shè)備結(jié)構(gòu)Fig.2Structureoffingerveincapturingdevices目前多數(shù)采集裝置的設(shè)計是在基本采集結(jié)構(gòu)基礎(chǔ)上加以改進的,通過添加額外光源或穿透性更強的照明設(shè)備來提高成像的亮度和對比度,光控單元用于自適應(yīng)亮度調(diào)節(jié),選用不同圖像傳感器,采集到的指靜脈圖像的質(zhì)量也有所差異.表1列出了幾種實驗室中設(shè)計的研究用采集裝置的信息.表1部分(研究用)指靜脈采集裝置的結(jié)構(gòu)特性Table1Structurecharacteristicsofsomefingerveincapturingdevices(forresearch)ReferenceCaptureStructureResolutionAdvantages文獻[28]直射式NIRLED+CCDsensor+Positionsensor提高圖像對比度,減輕手指位置移動文獻[29]直射式NIRCamera+NIRFilter+Whiteacryl+NIRlaserdiode消除照明不均,亮度高,穿透性強文獻[30]直射式Camera+Lens+NIRfilter+NIRlasers+Reflectedlightilluminators+LCDdisplay圖像文獻[31]直射式CircularNIRcamera+NIRfilter+CircularNIRLED+Lightcontrollingunit-獲取三視角指靜脈圖像,構(gòu)建3D指靜脈圖像文獻[32]反射式微透鏡陣列+CMOSsensor+NIRLED+信號隔離器-設(shè)備小型化文獻[33]反射式CMOSarray+Lens+NIRfilter+NIRLED+Lightdiffuser-裝置體積小巧5傳統(tǒng)指靜脈識別方法ROI提取指將指靜脈圖像中特征信息最豐富的區(qū)域提取出來,去除背景噪聲等干擾,提高后續(xù)圖像特征提取和識別的效率.文獻[19]在定位ROI區(qū)域之前,根據(jù)提取到的手指邊緣擬合中線,計算偏向角,對偏轉(zhuǎn)圖像進行校正,然后基于滑動窗口檢測指關(guān)節(jié)位置,從而確定ROI的高度.該方法操作簡單,對于邊緣清晰的指靜脈圖像有較好的提取效果,但文中4ComputerScience計算機科學(xué)Vol.49,No.6A,June2022使用的原始Sobel算子對模糊邊緣或背景復(fù)雜的圖像提取效果較差,同時滑動窗口的選取大小對指關(guān)節(jié)的定位效果差異較大,無法很好適應(yīng)不同采集質(zhì)量的圖像;針對經(jīng)典邊緣檢測算子對低質(zhì)圖像敏感的問題,文獻[34]通過式(1)計算行灰度最小值gmin以尋找手指分界線.其中,w,h為圖像寬度和高度,p(i,j)表示某一像素點的灰度值.根據(jù)手指分界線將圖像分為上下兩部分,每部分分別使用邊緣檢測算子尋找手指邊緣,對于缺失部分通過多項式擬合進行修復(fù).該方法一定程度上解決了缺失手指邊緣的提取問題,但其提取效果同樣依賴于前期檢測模板對邊緣的粗提取.類似地,文獻[35]根據(jù)局部最大亮度和固定窗口定位手指上下關(guān)節(jié)位置,以確定手指ROI;為了進一步實現(xiàn)對手指邊緣的精確提取,文獻[36]首先使用水平Kirsch算子檢測手指邊緣,之后將圖像分成4個子區(qū)域,在每個子區(qū)域采用3σ動態(tài)閾值法尋找最大連通分量,最后將符合要求的連通分量采用線性插值擬合出完整的手指邊緣.該方法對局部圖像采用可變閾值,分別提取候選邊緣,對低質(zhì)量圖像有較好的提取效果.頻域特征增強方法能夠突出靜脈線性特征和方向變化信息,抑制背景噪聲.其中,基于Gabor濾波器族的方向濾波方法可用于增強靜脈紋路.文獻[37]將指靜脈成像視作光學(xué)透照模型,當(dāng)近紅外光照射手指時,光的散射會影響靜脈區(qū)域的成像.基于從光照圖像中得到的非散射傳輸圖(NonGScatGteredTransmissionMap,NSTM)T(x)和局部背景照度圖(LocalBackgroundIlluminationMap,LBIM)I(x)與原始圖像F(x)之間的關(guān)系,提出了加權(quán)生物光照模型(WeightedBioGlogicalOpticalModel,WBOM),用于去除圖像散射,得到不受光照因素影響的未退化圖像F0(x),如式(2)所示:其中,對T(x)與I(x)的估算分別使用非其中,對T(x)與I(x)的估算分別使用非線性伽馬校正和各向異性擴散方法.靜脈特征增強使用多尺度、多方向的GaGbor小波變換,經(jīng)變換后的圖像可由式(3)計算獲得:二維卷積的實部,即為包含靜脈脊線特征的轉(zhuǎn)換圖像.對于給定尺度m,在所有k方向上的最大響應(yīng)圖Fm(x)可由式二維卷積的實部,即為包含靜脈脊線特征的轉(zhuǎn)換圖像.對于給定尺度m,在所有k方向上的最大響應(yīng)圖Fm(x)可由式(4)獲得:(Tr(x))(4)同時,為抑制Fm(x)中的冗余信息,文獻[37]提出了尺度間乘法運算(InterGScaleMultiplicationOperation,ISMO)來增強靜脈信息,得到Gabor增強的指靜脈圖像E(x),如式(5)所示:該方法的操作比較復(fù)雜,但是能夠檢測到較為完整的指靜脈紋路,同時能夠較好地抑制背景噪聲的干擾,對光照不均的模糊指靜脈圖像也有很好的增強效果.文獻[38]基于單尺度Retinex(SingleScaleRetinex,SSR),將原圖像F視為強度變化IV(IntensityVariation)與反射率R(Reflectance)的乘積,即F(x,y)=IV(x,y)×R(x,y),提出了基于SSR的引導(dǎo)濾波方法(GuidedFilterBasedSingleScaleRetinex,GFSSR),用于圖像增強,其計算式如式(6)所示:logR(x,y)=logF(x,y)-log(F(x,y)×G(x,y))(6)其中,IV(x,y)由引導(dǎo)濾波圖像得到,IV(x,y)=F(x,y)?G(x,y),G(x,y)為引導(dǎo)濾波器.該方法的實現(xiàn)比較簡單,但是對于不同質(zhì)量的圖像,需要人為調(diào)節(jié)濾波參數(shù)才能得到較為理想的結(jié)果.同樣,基于濾波操作,文獻[39]對圖像的ROI分別進行了多方向Gabor濾波和Retinex濾波,根據(jù)不同濾波方法對靜脈區(qū)域的增強效果不同,采用模糊邏輯選取最優(yōu)權(quán)值w,對兩種濾波圖像依據(jù)式(7)進行加權(quán)融合,以獲得最優(yōu)靜脈增強圖像.IO(x,y)=wIG(x,y)+(1-w)IR(x,y)(7)其中,IG(x,y)和IR(x,y)分別為原始指靜脈圖像的Gabor濾波圖像和Retinex濾波圖像.該方法結(jié)合了不同的濾波操作,對指靜脈的增強效果有更好的適應(yīng)性,但基于模糊規(guī)則的融合策略實現(xiàn)較為復(fù)雜,且應(yīng)用場景有限.文獻[40]針對指靜脈圖像因生物組織的光散射和衰減造成的退化現(xiàn)象,導(dǎo)致成像區(qū)域光照不均、模糊,靜脈特征難以觀察的問題,提出了雙層恢復(fù)方法,用于解決以上問題.首先對原始圖像建立雙層擴散模型(BilayerDiffusionModel),然后采用blurGSURE(SteinsUnbiasedRiskEstimate)方法估計模型參數(shù)并使用multiGWienerSUREGLET(LinearExpansionThreshold)方法進行圖像恢復(fù).雙層擴散模型如式(8)所示:其中,q=k,kd=型與光照強度I0,介質(zhì)的各向異性參數(shù)τ,皮膚的吸收系數(shù)γa,散射系數(shù)γs,輻射距離r1和r2,靜脈與指背指掌間的距離d1和d2等因素有關(guān).空間域特征增強方法通過調(diào)整圖像的灰度分布,來增強圖像對比度,以突出顯示暗部靜脈細節(jié).文獻[41]在預(yù)處理階段使用自適應(yīng)直方圖均衡化(AdaptiveHistogramEqualiGzer,AHE),來增強ROI中靜脈線的顯示;文獻[42]使用簡化的脈沖耦合神經(jīng)網(wǎng)絡(luò)(PulseCoupledNeuralNetwork,PCGNN)進行圖像增強,網(wǎng)絡(luò)中神經(jīng)元的個數(shù)對應(yīng)于圖像像素數(shù),饋送輸入Fij僅接收外部刺激Sij,連接輸入Lij僅包含相鄰神經(jīng)元的輸出,其計算過程如式(9)-式(11)所示:F=S(9)L=wklY1(10)U=F(1+βL)(11)在該網(wǎng)絡(luò)中,刺激信號Sij即為指靜脈輸入圖像,點火時間實例(FireTimeInstance)表示增強后的指靜脈圖像.PCGNN提出時間較早,在圖像處理領(lǐng)域已有較多應(yīng)用.文獻[42]嘗試將簡化后的PCNN結(jié)合提出的參數(shù)設(shè)置方法用于劉偉業(yè),等:指靜脈識別技術(shù)研究綜述5指靜脈圖像增強,與傳統(tǒng)基于Gabor,Retinex和CLAHE等方法相比,圖像對比度更強,靜脈紋路更加明顯.文獻[43]針對光照不均、低對比度圖像,使用局部直方圖均衡化,根據(jù)局部滑動窗口內(nèi)的灰度分布更新原像素值,更新公式如下:p′(x,y)=p(x,y)+θ(p(x,y)-μ(x,y))(12)其中,p(x,y)為原像素值,μ(x,y)為局部滑動窗口內(nèi)的像素均值,p′(x,y)為新像素值,若p′與p的差值過大,則使用雙三次插值更新p(x,y),然后對每個子塊的圖像進行直方圖均衡化,同時使用同態(tài)濾波抑制圖像低頻部分,增強高頻部分,突顯靜脈紋路,計算式如下:H(u,v)=γL+(γH-γL)(1-e-k[Du,vD)(13)該方法同樣基于分塊思想,分別對不同圖像區(qū)域執(zhí)行相同操作.與全局方法相比該方法處理速度更快,但同樣受制于逐像素比較與立方插值方法,對于維度更高的指靜脈圖像仍難保證實時性.5.2特征提取與匹配指靜脈特征提取可分為基于細節(jié)點、基于降維、基于局部紋理和基于靜脈紋路4種方法.基于細節(jié)點的特征提取方法[24,44G45]與指紋識別類似,通過提取指靜脈網(wǎng)絡(luò)中的細節(jié)點(靜脈端點或分叉點)并將其作為分布特征,采用距離度量等方法計算待匹配樣本之間細節(jié)點的分布相似性,來實現(xiàn)圖像匹配.基于降維的方法是將高維圖像特征映射到低維空間,此時低維向量包含了圖像的主要特征信息.文獻[46]使用PCA方法提取指靜脈特征;文獻[47]基于改進的2DPCA和KMMC(KernelMaximumBetweenGclassMarginCriterion)方法提取圖像特征.2DPCA方法去除了圖像的行列相關(guān)性,逐行壓縮特征,降低了圖像維度,KMMC方法提取壓縮矩陣的特征向量,逐列壓縮特征,進一步降低了特征維度.與單一PCA降維相比,該方法在降維的同時,避免了行列方向上特征的相互影響,特征降維過程如圖3所示.圖3特征降維過程[47]Fig.3Featuredimensionreductionprocess[47]文獻[48]進一步考慮靜脈的結(jié)構(gòu)特征,使用二維Gabor濾波器提取靜脈紋路和方向信息,得到2DHOL(2DHistoGgramofOrientedLines)特征,之后采用(2D)2FPCA(2DFishGerPCA)對2DHOL特征降維;文獻[49]使用分塊的(2D)2PCA對分塊的ULBP(UniformLocalBinaryPattern)進行特征降維.基于分塊的方法能夠提高降維過程中對局部特征的響應(yīng),加速提取過程.基于局部紋理的方法是將像素差異轉(zhuǎn)為二值編碼,提取的是局部窗口范圍內(nèi)的靜脈紋理特征.文獻[50]改進了傳統(tǒng)LBP,使用LLBP(LocalLineBinaryPattern)來提取水平和垂直方向的線形區(qū)域靜脈紋理特征,其計算過程如式(14)-式(16)所示:hchc)2k-c-1(14)vc)2k-c-1(15)其中,LLBPh和LLBPv分別為水平和垂直方向的線形LBP特征分量為線形區(qū)域像素數(shù),p(●)為閾值函數(shù).(17)LLBP從兩個維度提取指靜脈紋理信息,增強了其對原始指靜脈的特征表達,但未解決對圖像旋轉(zhuǎn)的敏感性問題;文獻[51]針對LLBP方向的有限性,提出了GLLBP(GeneralGizedLLBP)方法,可在任意方向的線形區(qū)域內(nèi)提取靜脈的LBP特征,如式(18)、式(19)所示:(18)(19)GLLBP●2c-m-1+(18)(19)θ,k=1,2,…,n其中,p為θ方向第i個像素的灰度值,s(●)為閾值函數(shù).相比LLBP,GLLBP考慮了靜脈方向變化的多樣性,對靜脈的方向特征有更加豐富的表達效果;同樣考慮旋轉(zhuǎn)不變性,文獻[52]使用圓形LBP提取圖像子塊的紋理特征,計算每個區(qū)域的直方圖并分配權(quán)重,將直方圖統(tǒng)計特征按權(quán)重疊加,組合得到分塊LBP特征向量.圓形LBP對圖像旋轉(zhuǎn)問題具有更強的魯棒性,進一步提高了提取準(zhǔn)確率.文獻[53]發(fā)現(xiàn),對同一手指的多張指靜脈圖像,相同位置的LBP編碼會有所不同,于是提出了PBBM(PersonalizedBestBitMap)方法,僅記錄出現(xiàn)相同值的位置,并將其作為最佳位(BestBit)提取其對應(yīng)特征.該方法能夠有效抑制噪聲信息,同時放大個體差異.文獻[49]使用分塊多尺度ULBP(BlockMultiGscaleULBP,BMULBP)提取指靜脈紋理特征,對分塊指靜脈圖像逐塊提取ULBP特征,并按原位置重新整合.分塊的ULBP特征能夠更好地表示局部紋理的細節(jié)信息.基于靜脈紋路的方法是根據(jù)靜脈的形狀和方向等信息,提取完整的靜脈網(wǎng)絡(luò)結(jié)構(gòu).文獻[54G56]基于靜脈的曲率變化來提取靜脈特征,最大曲率(MaximumCurvature,MC)方法通過計算指靜脈橫截面的局部最大曲率點來提取靜脈特征.文獻[54]使用MC方法提取指靜脈特征并進行形態(tài)學(xué)處理,對不連續(xù)部分進行補全,但是簡單的形態(tài)學(xué)操作對不同提取效果的特征圖像處理差異較大,魯棒性較差;文獻[55]首先采用Gabor小波濾波和GLG(GrayGLevelGrouping)方法對圖像去噪,增強對比度,再使用MC方法提取靜脈特征;文獻[56]采用EMC(EnhancedMaximumCurvature)方法,使用Hessian對基于MC的靜脈特征增強去噪,以改善靜脈特征.文獻[57]提出了一種基于活動輪廓的特征提取方法,LBF(LocalBinaryFitting)活動輪廓模型對指靜脈特征進行分割,使用KFCM(KernelFuzzyCGmeans)方法進行初始化,避免了活動輪廓方法易受初始輪廓影響的問題,提高了分割6ComputerScience計算機科學(xué)Vol.49,No.6A,June2022的穩(wěn)定性,并且通過不斷迭代來最小化分割模型,直至得到完整、準(zhǔn)確的分割結(jié)果.Hausdorff距離、曼哈頓距離和漢明距離等,圖像分類常用最近鄰分類器、SVM分類器等.通過提取指靜脈的細節(jié)點特征、LBP特征或統(tǒng)計直方圖特征等,計算輸入圖像與注冊模板的特征向量之間的距離,或使用分類器計算特征向量在高維空間中的相似性程度,通過匹配分數(shù)判別圖像所屬類別.此類方法操作簡單,在小規(guī)模數(shù)據(jù)集中,當(dāng)特征數(shù)據(jù)量不大時,有較快的識別速度和較高的識別準(zhǔn)確率,具體如所列.表2常用的指靜脈特征匹配/分類方法Table2Commonlyusedfingerveinfeaturematching/classificationmethodsReferenceFeaturesFeatureextractionmethodsFeaturematchingmethodClassifier-SIFTGlikedescriptorandMatchingscore細節(jié)點特征細節(jié)點特征細節(jié)點特征PCA特征向量PCA特征向量局部紋理特征局部紋理特征靜脈紋路特征靜脈紋路特征-SIFTGlikedescriptorandMatchingscore細節(jié)點特征細節(jié)點特征細節(jié)點特征PCA特征向量PCA特征向量局部紋理特征局部紋理特征靜脈紋路特征靜脈紋路特征靜脈紋路特征靜脈紋路特征HessianmatrixandchiefcurvaturemapNiblackandcrossnumberSingularvaluedecomposition2DPCAandKMMC2DHOLand(2D)2FPCALocallinebinarypatternBlockcircleLBPImprovedmaximumcurvatureEnhancedmaximumcurvatureActivecontourmodelOrientationfiltersandSkeletonextraction-改進的Housdorff距離漢明距離歐氏距離歐氏距離漢明距離--KNSMSVM,KN,ELM-歐氏距離歐氏距離、曼哈頓距離JaccardsimilarityandMeanbiasederror改進的Housdorff距離-6基于深度學(xué)習(xí)的指靜脈識別傳統(tǒng)的指靜脈識別方法在小樣本條件下表現(xiàn)優(yōu)異,但當(dāng)數(shù)據(jù)量過大、特征數(shù)量增加時,傳統(tǒng)識別方法便無法滿足時間和性能需求.基于深度學(xué)習(xí)的圖像識別方法通過大量訓(xùn)練數(shù)據(jù)來不斷學(xué)習(xí)圖像的高維特征和全局信息,與傳統(tǒng)方法相比,學(xué)習(xí)到的特征更豐富、更具體,對不同質(zhì)量圖像的適應(yīng)性更強.如今,在計算機視覺領(lǐng)域,基于深度學(xué)習(xí)的方法已成為研究熱點,逐漸代替一些傳統(tǒng)識別方法,在效果上能夠達到更高的識別準(zhǔn)確率和更低的誤識率.指靜脈識別作為圖像識別領(lǐng)域的一大研究方向,自2016年開始,將CNN用于該方向的研究逐漸增多.文獻[59]基于預(yù)訓(xùn)練的VGGG16網(wǎng)絡(luò),經(jīng)模型微調(diào)之后,將真假指靜脈圖像對送入網(wǎng)絡(luò)中進行學(xué)習(xí)并返回二分類識別結(jié)果.使用預(yù)訓(xùn)練模型的好處在于,依賴成熟模型的學(xué)習(xí)能力,針對不同任務(wù),只需簡單調(diào)整網(wǎng)絡(luò)結(jié)構(gòu)便可快速實現(xiàn)特征學(xué)習(xí),無需進行復(fù)雜的人工設(shè)計.但并非所有預(yù)訓(xùn)練模型經(jīng)微調(diào)之后都具備優(yōu)秀的識別效果,這需要根據(jù)模型結(jié)構(gòu)與數(shù)據(jù)規(guī)模進行相應(yīng)調(diào)整;文獻[59]基于預(yù)訓(xùn)練的VGGG16網(wǎng)絡(luò),經(jīng)模型微調(diào)之后,了指靜脈識別系統(tǒng)“DeepVein”,使用WLD(WideLineDetecG(hardmining)策略提升了識別準(zhǔn)確率;文獻[14]使用設(shè)計的CNN模型進行指靜脈識別,圖像預(yù)處理階段只需進行邊緣檢測,提取手指前景區(qū)域.通過實驗發(fā)現(xiàn),基于原圖像的識別準(zhǔn)確率高于經(jīng)CLAHE增強后的指靜脈圖像.但同樣地,該模型雖結(jié)構(gòu)簡單,但參數(shù)規(guī)模卻很龐大,在實際訓(xùn)練過程中需要花費大量時間;文獻[61]將CNN中的卷積層替換為Gabor卷積層,提出了AGCNN(AdaptiveGaborCNN)模型,該模型將Gabor濾波器提取的靜脈尺度和方向信息引入CNN的同時有效減少了訓(xùn)練參數(shù),提升了模型的訓(xùn)練速度.除了將神經(jīng)網(wǎng)絡(luò)貫穿于指靜脈識別的整個流程之外,還可將網(wǎng)絡(luò)模型作為傳統(tǒng)圖像處理工具使用.文獻[62]采用卷積核產(chǎn)生的特征圖對原始圖像去噪重構(gòu).在圖像恢復(fù)過程中,反卷積網(wǎng)積核產(chǎn)生的特征圖對原始圖像去噪重構(gòu).在圖像恢復(fù)過程中,反卷積網(wǎng)絡(luò)專注于原始特征重建,忽略圖像噪聲信息,從而達到圖像去噪的目的.文獻[63]使用卷積自編碼網(wǎng)絡(luò)(ConvolutionalAutoGEncoder,CAE)提取指靜脈特征,結(jié)合傳統(tǒng)的特征分類算法SVM來實現(xiàn)圖像識別.該方法是傳統(tǒng)識別方法與深度學(xué)習(xí)方法的結(jié)合,網(wǎng)絡(luò)模型作為特征提取器,SVM是特征分類器.相比純CNN識別模型,該方法在特征提取與識別階段有更低的時間消耗.與傳統(tǒng)方法不同,基于深度學(xué)習(xí)的識別方法若想取得較為理想的識別結(jié)果,通常需要足量的訓(xùn)練學(xué)習(xí)數(shù)據(jù)作為支撐,而針對現(xiàn)有指靜脈數(shù)據(jù)集的普遍特征,數(shù)據(jù)不足是限制網(wǎng)絡(luò)訓(xùn)練的一大因素,如何在有限的訓(xùn)練樣本的情況下使網(wǎng)絡(luò)模型充分學(xué)習(xí)到有效的指靜脈特征,是一個不可避免的問題.一種方法是,在有限的數(shù)據(jù)集上,采用遷移學(xué)習(xí)或輕量網(wǎng)絡(luò)進行識別.文獻[64]使用數(shù)據(jù)增強和預(yù)訓(xùn)練權(quán)重CNN來解決數(shù)據(jù)不足的問題,采用孿生網(wǎng)絡(luò)模型和MC損失函數(shù)來進行訓(xùn)練,以解決類別樣本數(shù)據(jù)量少的問題.文獻[65]采用輕量級的雙通道網(wǎng)絡(luò)進行快速指靜脈認證,在此認證網(wǎng)絡(luò)的基礎(chǔ)上,整合原始圖像和miniGROI圖像特征,使用雙流網(wǎng)絡(luò)實現(xiàn)指靜脈識別.文獻[63]將CAE學(xué)習(xí)到的高維指靜脈特征送入CNN進行識別,有效降低了信息冗余.另一種方法是,對原始數(shù)據(jù)集進行擴充,對增強后的數(shù)據(jù)集使用復(fù)雜網(wǎng)絡(luò)進一步學(xué)習(xí)深層特征.文獻[66]首次嘗試將GAN用于指靜脈數(shù)據(jù)增強.首先在靜脈區(qū)域隨機生成靜脈點和生長點,靜脈點模擬真實指靜脈紋路,生長點指導(dǎo)靜脈紋路的生成走向.在得到模擬靜脈紋路圖后,采用GAN網(wǎng)絡(luò)實現(xiàn)靜脈紋路圖像到真實指靜脈圖像的非線性映射,從而達到擴充數(shù)據(jù)集的目的.同樣基于GAN,文獻[67]將CyGcleGAN與CNN結(jié)合,設(shè)計分層對抗網(wǎng)絡(luò),基于類內(nèi)樣本差異性和類間樣本相似性生成對抗樣本,用于數(shù)據(jù)增強.該方法直接基于真實指靜脈圖像進行樣本生成,與文獻[66]相比,該方法生成的樣本圖像與真實圖像更為貼近,方差更小,靜脈紋路更加自然平滑.文獻[68]提出了一種類間數(shù)據(jù)增強方法,通過垂直翻轉(zhuǎn)擴充訓(xùn)練集,同時結(jié)合傳統(tǒng)的類內(nèi)數(shù)據(jù)增強方法有效擴充了樣本數(shù)量,解決了數(shù)據(jù)不足的問題.表3列出了部分傳統(tǒng)方法與基于深度學(xué)習(xí)識別方法的效果對比.劉偉業(yè),等:指靜脈識別技術(shù)研究綜述7表3傳統(tǒng)指靜脈識別方法與基于深度學(xué)習(xí)的指靜脈識別方法的對比=Table3ComparisonoftraditionalmethodsanddeeplearningGbasedmethodsinfingerveinrecognition=RecognitionmethodsReferenceDatabasePreprocessingAlgorithms/ModelsPerformanceTraditionalmethods文獻[10]HomeGmadeSegmentationofthefingerregionSmoothing(Gaussianfilters)Meancurvature+MatchedpixelratioEER=0.25%文獻[19]HomeGmadeRotationcorrectionROIextractionLBP+HammingdistanceEER=0.11%文獻[38]MMCBNU_6000ROIextractionImageenhancementSinglescaleretinexguidedfilter+DWTEEREER=2.57%Singlescaleretinexguidedfilter+LBPEEREER=1.50%Singlescaleretinexguidedfilter+LPQEEREER=1.56%文獻[39]SDUMLAROIextractionImageenhancementEER=17.25%Gabor+RettasedfusionEER=3.08%PKUFVD(V4)文獻[56]SDUMLARotationcorrectionROIextractionImageenhancementEnhancedmaximumcurvature+HOG+SVMEER=0.33%EEREER=0.14%DeepLgGmethods文獻[60]HomeGmadeROIextractionFeatureextraction(Widelinedetector)DCNNEER=0.42%文獻[14]HKPUFVGFVGUSMUTFVPSegmentationofthefingerregionACCACC=95.32%ACCACC=97.53%ACCACC=97.48%ACCACC=98.33%文獻[61]MMCBNU_6000ROIextractionAGCNNACCACC=84.95%SDUMLAMMCBNU_6000SDUMLA文獻[64]FVUSM文獻[64]DataaugmentationSiameseCNNEEREER=0.08%EEREER=0.11%EEREER=0.75%ROIextractionEEREER=0.20%EER0.94%7指靜脈公開數(shù)據(jù)集及識別評價指標(biāo)為了促進指靜脈等生物信息識別領(lǐng)域的深入研究,并且保證實驗結(jié)果有相對統(tǒng)一的評價標(biāo)準(zhǔn),國內(nèi)外一些高校和研究機構(gòu)制作了指靜脈等生物特征數(shù)據(jù)集并公開發(fā)布以供研究者使用,為推動該領(lǐng)域的進一步發(fā)展做出了巨大貢獻.對其歸納整理如下.種生物特征數(shù)據(jù)集.其中指靜脈數(shù)據(jù)集中受試者共106人,每人分別對其左、右手的食指、中指和無名指進行采集,每根手指采集6張,圖像存儲為“BMP”格式,大小為320×240,共包含3816張.該數(shù)據(jù)集的樣張如圖4(a)所示.khtiar團隊創(chuàng)建[11],其中123名受試者(女性khtiar團隊創(chuàng)建[11],其中123名受試者(女性40人,男性83人,年齡在20-52歲)均為該校師生人員.數(shù)據(jù)采集分兩階段(間隔2周)進行,每階段每人分別對其左右手的食指和中指進行采集,每根手指采集6張,每張圖像大小為640×480,4(b)所示.(3)VERAFV.該數(shù)據(jù)集由來自瑞士的Idiap研究機構(gòu)和瑞士西部應(yīng)用科學(xué)大學(xué)創(chuàng)建[70],共有110名受試者(女性40人,男性70人,年齡在18-60歲)參與采集,對每名受試者的左、右手食指各采集2張,采集間隔40人,男性70人,年齡在18-60歲)參與采集,對每名受試(4)PloyUGFV.該數(shù)據(jù)集由香港理工大學(xué)創(chuàng)建,于200993%的人年齡小于30歲),分兩階段(平均間隔66.8天)進行.每名受試者每階段分別對其左手食指(5)MMCBNU_6000.該數(shù)據(jù)集是韓國全北國立大學(xué)電子與信息工程系多媒體實驗室在2013年1月29日-2月20日創(chuàng)建的[71].由100名受試者的指靜脈圖像組成,每名受試者提供其左、右手食指、中指和無名指,每以“BMP”格式存儲,大小為480×640子與信息工程系多媒體實驗室在2013年1月29日-2月20(6)UTFVP.該數(shù)據(jù)集由荷蘭的特文特大學(xué)創(chuàng)建[72].歲),于2011-2012年分兩階段(平均間隔15歲),于2011-2012年分兩階段(平均間隔15天)采集完成.指,圖像均為“PNG”格式,大小為672×380,共采集1440張.該數(shù)據(jù)集的樣張如圖4(f)所示.(7)PLUSVeinGFV3.該數(shù)據(jù)集由德國的薩爾茨堡大學(xué)計算機科學(xué)系創(chuàng)建,共包含4個子集,分別為用LED和Laser光源拍攝的指背和指掌靜脈圖像.受試者共60人,對每人1800張圖像,共采集7200張.每張圖像為“PNG”格式,大小為600×1024.該數(shù)據(jù)集的樣張如圖4(g)所示.此外,北京大學(xué)和華南理工大學(xué)等高校也在指靜脈識別研究中發(fā)布了公開數(shù)據(jù)集.可以看出,不同數(shù)據(jù)集中采集的圖像信息均有所差別,不同數(shù)據(jù)集因采集設(shè)備和采集環(huán)境等差異,受環(huán)境光照、背景噪聲、采集人員等影響,在成像質(zhì)量方面均有所不同.因此,在進行特征提取和識別或網(wǎng)絡(luò)訓(xùn)練8ComputerScience計算機科學(xué)Vol.49,No.6A,June2022之前,對圖像的ROI定位、歸一化和特征增強等工作顯得尤為重要.(a)SDUMLAGHMT(b)FVGUSM(c)VERAFV(d)PloyUGFV(e)MMCBNU_6000(f)UTFVP(g)PLUSVeinGFV3圖4指靜脈公開數(shù)據(jù)集樣張Fig.4Publicfingerveindatasetssamples在指靜脈識別領(lǐng)域,算法的識別準(zhǔn)確率、查準(zhǔn)率、召回率、OperatorCharacteristicCurve)曲線和響應(yīng)時間等是評價系統(tǒng)性能的常用指標(biāo).每張圖像樣本均可分為兩類,即正類(PosGitive,屬于該類)和負類(Negative,不屬于該類),根據(jù)系統(tǒng)預(yù)測結(jié)果與實際分類標(biāo)簽的差異,可將識別結(jié)果分為4類,混淆矩陣如表4所列.表4圖像分類的混淆矩陣Table4ConfusionmatrixofimageclassificationPredictedActualPositiveNegativePositiveTruePositiveFalsePositiveNegativeFalseNegativeTrueNegative識別準(zhǔn)確率(ACC)指系統(tǒng)正確識別指靜脈圖像的數(shù)量與全體指靜脈圖像N的比例,即ACC=(TP+TN)/N,該指標(biāo)能夠比較直觀地體現(xiàn)識別系統(tǒng)的整體性能;查準(zhǔn)率(PreciGsion)又稱精確率,指系統(tǒng)正確識別為正類的樣本與所有本應(yīng)被識別為正類樣本的比例,即Precision=TP/(TP+FP);召回率(Recall)又稱查全率,指系統(tǒng)正確識別為正類的樣本與所有被識別為正類樣本的比例,即Recall=TP/(TP+TN);真正例率(TruePositiveRate,TPR)指系統(tǒng)預(yù)測為正類的樣本中真正類的比例,即TPR=Recall;假正例率(FalsePositiveRate,FPR)指系統(tǒng)預(yù)測為負類的樣本中被錯誤分為負類的樣本所占的比例,即FPR=FP/(FP+TN).以上為指靜脈圖像二分類問題中常用的評價指標(biāo).在指靜脈圖像的多分類問題中,常用以下評價指標(biāo).拒真率(FalseRejectRate,FRR)指系統(tǒng)錯誤地拒絕正樣本的次數(shù)與類間錯誤匹配總次數(shù)的比例,計算式如式(20)所示:FRR=×100%(20)認假率(FalseAcceptRate,FAR)指系統(tǒng)錯誤地接受負樣本的次數(shù)與類內(nèi)正確匹配總次數(shù)的比例,計算式如式(21)所示:FAR=×100%(21)FRR與FAR的值均與系統(tǒng)中預(yù)設(shè)的相似性認定指數(shù)有關(guān).認定指數(shù)越高,對系統(tǒng)的安全性要求越高,系統(tǒng)誤拒正樣本的概率就越高,FRR值會上升;相反地,系統(tǒng)誤認負樣本的概率越低,FAR值會減小,二者呈現(xiàn)負相關(guān).不同的應(yīng)用場景,對FRR與FAR的值有不同的要求.在某些安全性要求較高的場所如銀行金庫、監(jiān)獄等,FAR要盡可能低,以保證國民財產(chǎn)安全.當(dāng)FAR與FRR相等時,該點的值稱為等誤率(EqualErGrorRate,EER),用于綜合評價系統(tǒng)性能,EER越小,系統(tǒng)的整體性能就越優(yōu)秀.由FRR和FAR繪制的曲線為ROC曲線,它反映了FRR與FAR在系統(tǒng)表現(xiàn)上的動態(tài)平衡,EER即ROC曲線與FAR=FRR的交點.ROC曲線下的面積稱為AUC(AreaUnderCurve),其值越大,系統(tǒng)性能就越好.結(jié)束語目前指靜脈識別方法可分為傳統(tǒng)的圖像特征處理與匹配方法以及基于深度學(xué)習(xí)的端到端識別方法,兩種方法均取得了許多優(yōu)秀成果,理論不斷完善,產(chǎn)品不斷創(chuàng)新.此外,在指靜脈識別前進發(fā)展的道路上,以下方面仍有待進一步探索和研究.(1)指靜脈成像質(zhì)量有待提高.在圖像采集過程中,受采集設(shè)備、環(huán)境光和被采集者手指移動等干擾,使得圖像出現(xiàn)光照不均、模糊、手指偏轉(zhuǎn)等問題,從而影響識別結(jié)果.針對此類問題,除了預(yù)處理階段對圖像進行平滑去噪、靜脈增強等操作之外,還可以在前期進行圖像質(zhì)量評估,從而篩選出高質(zhì)量的圖像.(2)特征丟失.在特征提取方面還存在著諸多問題,如不同的特征提取算法提取到的指靜脈特征差別較大,特征降維會損失細節(jié)特征,局部特征對圖像的表示能力有限,靜脈紋路提取對低質(zhì)量圖像效果較差、容易丟失特征信息等.針對以上問題,可使用圖像修復(fù)技術(shù)完成小區(qū)域指靜脈紋路殘缺特征的修復(fù)[37,73G75],或綜合考慮靜脈的灰度差異、方向變化、幾何形狀和細節(jié)點等特征,避免由于單一特征信息不足而引起的識別性能下降.(3)仿冒檢測.已有相關(guān)研究[76]證實,指靜脈識別系統(tǒng)存在模板攻擊的風(fēng)險,潛在的攻擊方式主要是打印攻擊.對于打印的偽靜脈圖像,識別系統(tǒng)存在誤識的概率.文獻[70]使用商用打印機將真實指靜脈圖像打印到紙上,之后使用黑色馬克筆增強靜脈紋路,將該欺騙樣本送入識別系統(tǒng)進行偽特征識別.實驗結(jié)果表明,系統(tǒng)對偽造靜脈圖像的誤識率高達86%,因此指靜脈識別系統(tǒng)的模板攻擊檢測(Presentation劉偉業(yè),等:指靜脈識別技術(shù)研究綜述9AttackDetection,PAD)是一個不容忽視的問題.針對如何區(qū)分真假靜脈圖像的問題,可以通過提取模糊度、灰度統(tǒng)計分布和噪聲分布等特征,根據(jù)特征之間的差異性來辨別真?zhèn)蝃77].(4)數(shù)據(jù)不足.目前已有的公開數(shù)據(jù)集仍十分有限,且包含的圖像較少,無法滿足深度學(xué)習(xí)方法對大數(shù)據(jù)量的需求,無法適用于深層網(wǎng)絡(luò)模型.為解決該問題,可以采用數(shù)據(jù)增強技術(shù),基于采取的原始圖像進行旋轉(zhuǎn)、裁剪、放縮等方式來擴充數(shù)據(jù)集,提高網(wǎng)絡(luò)的學(xué)習(xí)能力;或者針對有限數(shù)據(jù),使用輕量級網(wǎng)絡(luò)學(xué)習(xí)圖像特征,將學(xué)習(xí)到的特征結(jié)合特征匹配方法進行識別.在數(shù)據(jù)信息高速流通的時代,人們對身份認證和隱私數(shù)據(jù)等的保密性越來越重視,并且近年來全球疫情的爆發(fā),無限制的非接觸式采集系統(tǒng)的研發(fā)、基于指靜脈等生物特征的多模態(tài)識別、特征模板庫的加密保護、基于指靜脈等生物特征信息的密碼應(yīng)用,以及3D指靜脈識別等方面的能力,其應(yīng)用范圍和場景也會更加廣泛,是未來具有光明本文聚焦于指靜脈識別技術(shù),從硬件采集裝置到軟件識別算法,對整個識別過程及理論研究進行了闡述.從研究成果豐富、發(fā)展相對穩(wěn)定的傳統(tǒng)識別算法,到如今研究火熱的基于深度學(xué)習(xí)的識別方法,指靜脈識別正朝著高精度、快識別、多場景和更穩(wěn)定、更安全、更便捷的方向快速發(fā)展.[1]MOAYERB,FUKS.ATreeSystemApproachforFingerprintPatternRecognition[J].IEEETransactionsonPatternAnalysisandMachineIntelligence,1986,8(3):376G387.[2]TURKM,PENTLANDA.EigenfacesforRecognition[J].JourGnalofCognitiveNeuroscience,1991,3(1):71G86.[3]WILDESRP,ASMUTHJC,GREENGL,etal.ASystemforAutomatedIrisRecognition[C]∥ProceedingsofIEEEWorkGshoponApplicationsofComputerVision.Sarasota,FL,USA:IEEEComputerSociety,1994:121G128.[4]LEEEC,LEEHC,PARKKR.FingerVeinRecognitionusingMinutiaGBasedAlignmentandLocalBinaryPatternGBasedFeaGtureExtraction[J].InternationalJournalofImagingSystemsandTechnology,2009,19(3):179[5]RICEAJ.AQualityApproachtoBiometricImaging[C]∥ProGceedingsofIEEColloquiumonImageProcessingforBiometricMeasurement.London,UK:InstitutionofEngineeringand[6]KONOM.ANewMethodfortheIdentificationofIndividualsbyusingofVeinPatternMatchingofaFinger[C]∥ProceedingsofFifthSymposiumonPatternMeasurement.Yamaguchi,JaG[7]KONOM,UEKIH,UMEMURAS.NearGInfraredFingerVeinPatternsforPersonalIdentification[J].AppliedOptics,2002,[8]MIURAN,NAGASAKAA,MIYATAKET.FeatureExtracGtionofFingerGVeinPatternsBasedonRepeatedLineTrackinganditsApplicationtoPersonalIdentification[J].MachineVisionandApplications,2004,15(4):194G203.[9]MIURAN,NAGASAKAA,MIYATAKET.ExtractionofFinGgerGVeinPatternsusingMaximumCurvaturePointsinImageProfiles[J].IEICETransactionsonInformationandSystems,[10]SONGW,KIMT,KIMHC,etal.AFingerGVeinVerificationSystemusingMeanCurvature[J].PatternRecognitionLetters,[11]ASAARIMSM,SUANDISA,ROSDIBA.FusionofBandLimitedPhaseOnlyCorrelationandWidthCentroidContourDistanceforFingerBasedBiometrics[J].ExpertSystemswithApplications,2014,41(7):3[12]VLACHOSM,DERMATASE.FingerVeinSegmentationfromInfraredImagesBasedonaModifiedSeparableMumfordShahModelandLocalEntropyThresholding[J].ComputationalandMathematicalMethodsinMedicine,2015,2015(1):1G20.[13]RADZISA,HANIMK,BAKHTERIR.FingerGVeinBiometricIdentificationusingConvolutionalNeuralNetwork[J].TurkishJournalofElectricalEngineering&ComputerSciences,2016,[14]DASR,PICIUCCOE,MAIORANAE,etal.ConvolutionalNeuralNetworkforFingerGVeinGBasedBiometricIdentification[J].IEEETransactionsonInformationForensicsandSecurity,[15]NOHKJ,CHOIJ,HONGJS,etal.FingerGVeinRecognitionBasedonDenselyConnectedConvolutionalNetworkusingScoreGLevelFusionwithShapeandTextureImages[J].IEEEAccess,2020,8(1):967[16]LINXR,ZHUANGB,SUXS,etal.MeasurementandMatcGhingofHumanVeinPatternCharacteristics[J].JournalofTsinGghuaUniversity(ScienceandTechnology),2003,43(2):164G[17]YUCB,QINHF.ResearchonFingerVeinImageFeatureExGtractionAlgorithm[J].ComputerEngineeringandApplication,[18]WANGKJ,LIUJY,LIXF.FingerVeinRecognitionAlgoGrithmBasedonRelativeDistance[J].ComputerScience,2011,[19]YANGL,YANGG,YINY,etal.SlidingWindowGBasedRegionofInterestExtractionforFingerVeinImages[J].Sensors,[20]YANGG,XIAOR,YINY,etal.FingerVeinRecognitionBasedonPersonalizedWeightMaps[J].Sensors,2013,13(9):12093G[21]YANGJ,SHIY,JIAG.FingerGVeinImageMatchingBasedonAdaptiveCurveTransformation[J].PatternRecognition,2017,[22]KANGW,LUY,LID,eta

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論