《模式識(shí)別原理與應(yīng)用》課件第13章_第1頁
《模式識(shí)別原理與應(yīng)用》課件第13章_第2頁
《模式識(shí)別原理與應(yīng)用》課件第13章_第3頁
《模式識(shí)別原理與應(yīng)用》課件第13章_第4頁
《模式識(shí)別原理與應(yīng)用》課件第13章_第5頁
已閱讀5頁,還剩76頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

第13章圖像識(shí)別13.1圖像識(shí)別的基本原理13.2人臉識(shí)別13.3簽名識(shí)別13.4車牌識(shí)別習(xí)題13.1圖像識(shí)別的基本原理如圖13-1所示,一個(gè)圖像識(shí)別系統(tǒng)主要包括三個(gè)部分:圖像信息的獲取、特征提取和分類判決。圖像信息的獲取就是把圖片、底片、文字圖形等用掃描設(shè)備變換為電信號(hào)以備后續(xù)處理;特征提取就是抽出能反映事物本質(zhì)的特征;分類判決是根據(jù)所提取的特征做出分類結(jié)論的過程。其中,特征提取和分類判決關(guān)系密切。圖13-1圖像識(shí)別流程框圖

1.統(tǒng)計(jì)圖像識(shí)別方法統(tǒng)計(jì)圖像識(shí)別方法以統(tǒng)計(jì)模式識(shí)別為基礎(chǔ),采用特征向量描述圖像模式,根據(jù)決策函數(shù)進(jìn)行模式判決分類。不同的決策函數(shù)對應(yīng)不同的模式分類方法。目前主要的統(tǒng)計(jì)圖像識(shí)別方法有兩類:基于似然函數(shù)的模式分類方法(例如Bayes判決準(zhǔn)則、Fisher判決準(zhǔn)則等)和基于距離函數(shù)的模式分類方法(例如KNN方法)。

2.結(jié)構(gòu)圖像識(shí)別方法結(jié)構(gòu)圖像識(shí)別方法以結(jié)構(gòu)模式識(shí)別為基礎(chǔ),采用形式語言理論的概念描述圖像模式。它分析圖像的結(jié)構(gòu),把復(fù)雜結(jié)構(gòu)的圖像看成是由簡單的子圖像所組成,又把最簡單的子圖像作為基元,從基元的集合出發(fā),按照一定的文法(構(gòu)圖規(guī)則)去描述較復(fù)雜的圖像。在結(jié)構(gòu)圖像識(shí)別中,給定一個(gè)輸入模式基元串,判別其是否被文法識(shí)別器(又稱自動(dòng)機(jī))接受。

3.模糊圖像識(shí)別方法

模糊圖像識(shí)別方法以模糊模式識(shí)別為基礎(chǔ),采用模糊集合的概念代替確定子集,從而得到模糊的識(shí)別結(jié)果。模糊圖像識(shí)別利用模糊信息進(jìn)行圖像模式?jīng)Q策分類,使計(jì)算機(jī)或機(jī)器帶有接近人類的智能。

4.神經(jīng)網(wǎng)絡(luò)圖像識(shí)別方法神經(jīng)網(wǎng)絡(luò)圖像識(shí)別以神經(jīng)網(wǎng)絡(luò)模式識(shí)別為基礎(chǔ),利用人工神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)能力和容錯(cuò)性進(jìn)行圖像識(shí)別。神經(jīng)網(wǎng)絡(luò)分類器不需要對輸入的模式做明顯的特征提取,網(wǎng)絡(luò)的隱含層本身就具有特征提取的功能,特征信息體現(xiàn)在隱含層連接的權(quán)值之中。此外,神經(jīng)網(wǎng)絡(luò)的并行結(jié)構(gòu)決定了它對輸入模式信息的不完備或特征的缺損不敏感。圖像識(shí)別的應(yīng)用十分廣泛,例如,身份認(rèn)證中的人臉識(shí)別、虹膜識(shí)別、指紋識(shí)別和簽名識(shí)別,辦公自動(dòng)化中的光學(xué)字符識(shí)別,交通管制中的車牌識(shí)別,機(jī)械加工中零部件的識(shí)別、分類,從遙感圖片中分辨農(nóng)作物、森林、湖泊和軍事設(shè)施,氣象觀測數(shù)據(jù)或氣象衛(wèi)星照片準(zhǔn)確預(yù)報(bào)天氣等。13.2人臉識(shí)別人臉識(shí)別技術(shù)就是利用計(jì)算機(jī)技術(shù)從人臉圖像中分析提取出有效的識(shí)別信息來“辨認(rèn)”身份的技術(shù)。人臉識(shí)別已成為計(jì)算機(jī)視覺和模式識(shí)別領(lǐng)域最具挑戰(zhàn)的研究內(nèi)容之一。人臉識(shí)別技術(shù)廣泛應(yīng)用于智能人機(jī)接口、視頻會(huì)議系統(tǒng)、犯罪身份識(shí)別、有效證件的核對、各種安全檢測及機(jī)器視覺監(jiān)控等領(lǐng)域。人臉識(shí)別方法大致可分為幾何特征法、模板匹配法和模型法。

(1)幾何特征法是通過提取人臉的幾何特征,包括人臉部件歸一化的點(diǎn)間距離和比率以及人臉的一些特征點(diǎn)(如眼角、嘴角、鼻尖等),構(gòu)成二維拓?fù)浣Y(jié)構(gòu)進(jìn)行識(shí)別。人臉識(shí)別要求所構(gòu)造的幾何特征既要清晰區(qū)分不同對象人臉的差異,又要對光照背景條件不敏感。常規(guī)的幾何特征量很難滿足這些要求,從而該方法的識(shí)別效果不理想。

(2)模板匹配法是利用人臉的全局特征,根據(jù)人臉模板和相關(guān)參數(shù)來進(jìn)行識(shí)別的。這種方法簡單易行,但對人臉角度、大小和光照條件這些全局特征非常敏感,對人臉本質(zhì)區(qū)別的細(xì)節(jié)特征并不敏感。模板匹配法優(yōu)于幾何特征法。

(3)模型法是通過統(tǒng)計(jì)分析和匹配學(xué)習(xí)找出不同人臉之間的區(qū)別。該方法包括特征臉方法(Eigenface)、費(fèi)歇爾臉(Fisherface)方法、神經(jīng)網(wǎng)絡(luò)方法和HMM方法等。與模板匹配法相比,模型法的模板是通過樣本學(xué)習(xí)獲得的,而非人為設(shè)定的。因此,該方法從原理上更為先進(jìn)合理,實(shí)驗(yàn)中也表現(xiàn)出更好的檢測和識(shí)別效果。特征臉方法是建立在主分量分析(PrincipleComponentAnalysis,PCA)基礎(chǔ)上的;費(fèi)歇爾線性判別(FisherLinearDiscriminantAnalysis,FLDA)使類間離散度矩陣和類內(nèi)離散度矩陣之間的判別式的比率達(dá)到最大;費(fèi)歇爾臉方法是PCA與FLDA的結(jié)合。

本節(jié)以一種基于支持向量機(jī)和小波變換的人臉識(shí)別方法為例,介紹人臉識(shí)別。首先利用小波變換把人臉圖像分解為3層;然后,把費(fèi)歇爾臉方法分別應(yīng)用到不同分辨率上的3個(gè)低頻子圖,得到3個(gè)分類結(jié)果;最后,利用SVM網(wǎng)絡(luò)融合3個(gè)分類結(jié)果,得到最終的分類決策。13.2.1費(fèi)歇爾臉方法費(fèi)歇爾臉方法是PCA與FLDA的結(jié)合,它包含兩步:先利用PCA把人臉模式從高維圖像空間映射到低維空間,然后利用FLDA根據(jù)特征向量進(jìn)行判別。假設(shè)一幅人臉圖像是一個(gè)2-Dp×q陣列,把圖像zi按列的順序拉直為一個(gè)d=p×q維的列向量。Z={z1,z2,…,zN}為訓(xùn)練集合,包含N個(gè)圖像。協(xié)方差矩陣定義為(13-1)其中(13-2)令e1,e2,…,er為R的r個(gè)最大特征根對應(yīng)的特征向量,以它們?yōu)榱邢蛄拷M成矩陣E=(e1,e2,…,er)。把原始圖像集合Z={z1,z2,…,zN}投影到PCA變換空間,得到相應(yīng)的特征向量集合Y={y1,y2,…,yN},其中(13-3)在第二步中,把FLDA應(yīng)用于Y={y1,y2,…,yN}。假定訓(xùn)練集合的N個(gè)圖像包含m類。類間離散度矩陣定義為(13-4)類內(nèi)離散度矩陣定義為(13-5)其中:Ni為第i類Ci包含的樣本個(gè)數(shù);為所有樣本的均值;

為第i類Ci的均值。最優(yōu)投影矩陣為正交列向量組成的矩陣,使類內(nèi)離散度矩陣的判別式達(dá)到最小,同時(shí)使類間離散度矩陣的判別式達(dá)到最大,即(13-6)其中,w1,w2,…,wm-1為SB和SW的廣義特征向量,對應(yīng)m-1個(gè)最大廣義特征根η1,η2,…,ηm-1,即(i=1,2,…,m-1)(13-7)由于SB是m個(gè)矩陣之和,其中每個(gè)矩陣的秩至多為1,因此,SB的秩至多為m-1。訓(xùn)練圖像zi的特征向量vi為yi在FLDA-變換空間的投影:(i=1,2,…,N)(13-8)對于一幅測試圖像,利用上式提取其特征向量,然后與訓(xùn)練圖像的特征向量進(jìn)行比較,得到分類結(jié)果。一般使用最近均值原則:計(jì)算測試圖像的特征向量與每一類訓(xùn)練圖像的特征向量的均值之間的距離,選擇最近的類別作為識(shí)別結(jié)果。在費(fèi)歇爾臉方法中,為了確定r,把協(xié)方差矩陣R的特征根λi(i=1,2,…,d)按降序排列,選擇r為滿足下式的最小的k:(13-9)其中,P為接近于1的常數(shù)。13.2.2小波分解小波分解是一種有效的多分辨分析工具,它把信號(hào)分解為不同的頻段。利用小波變換,先對一幅圖像的行作低通濾波和高通濾波,再對列作低通濾波和高通濾波,得到一個(gè)低頻近似子圖和3個(gè)高頻細(xì)節(jié)子圖,如圖13-2所示。圖13-2二維小波分解的結(jié)構(gòu)示意圖其中,H和L分別表示高通濾波和低通濾波,“↓2”表示2取1的抽樣。分解一層時(shí),得到4個(gè)子圖(LL1,LH1,HL1,HH1);作第二層分解時(shí),用同樣的方式對低頻近似子圖LL1進(jìn)行分解,也得到4個(gè)子圖(LL2,LH2,HL2,HH2);作第三層分解時(shí),用同樣的方式對低頻近似子圖LL2進(jìn)行分解,也得到4個(gè)子圖(LL3,LH3,HL3,HH3);依次類推,圖像的3層小波分解示意圖如圖13-3所示。圖13-4是灰度圖像Lena512×512,圖13-5是Lena的小波分解(分解3層)。圖13-3圖像的小波分解示意圖圖13-4

Lena512×512的原圖圖13-5

Lena512×512的小波分解13.2.3基于小波變換與SVM的人臉識(shí)別

假定訓(xùn)練集合為Z={z1,z2,…,zN},包含m個(gè)類別。算法由以下三步組成:

(1)利用小波變換把圖像分解為3層,得到3個(gè)近似圖像LL1、LL2和LL3。一般采用Daubechies小波濾波器。把原始訓(xùn)練集合Z={z1,z2,…,zN}轉(zhuǎn)換為3個(gè)訓(xùn)練集合,即把同一分辨率的子圖構(gòu)成一個(gè)訓(xùn)練集合。

(2)把費(fèi)歇爾臉方法分別應(yīng)用于3個(gè)訓(xùn)練集合,得到3個(gè)分類器:分類器1、分類器2和分類器3。在PCA變換中,為了確定r,取P=95%。計(jì)算測試圖像的特征向量與訓(xùn)練圖像的特征向量的歐氏距離,并把它們轉(zhuǎn)換成隸屬度:(i=1,2,3;j=1,2,…,N)(13-10)其中:i是3個(gè)分類器的編號(hào);j為訓(xùn)練圖像的編號(hào);dij為第i個(gè)分類器中測試圖像的特征向量與第j個(gè)訓(xùn)練圖像的特征向量的歐氏距離;為第i個(gè)分類器的平均距離。第i個(gè)分類器中,測試圖像屬于第k個(gè)類的隸屬度為(i=1,2,3;k=1,2,…,m)(13-11)其中:Ck為第k類的樣本集合;Nk為Ck中樣本的個(gè)數(shù)。對于固定的分類器i,最大隸屬度原則是指,選擇k0滿足:(13-12)把測試圖像識(shí)別為第k0類。

(3)利用SVM網(wǎng)絡(luò)融合上述3個(gè)分類器。給定測試圖像,對于分類器i(i=1,2,3),得到m個(gè)隸屬度μik(k=1,2,…,m),構(gòu)成1個(gè)隸屬度向量。3個(gè)隸屬度向量連接成為1個(gè)尺寸為3m的隸屬度特征向量。訓(xùn)練SVM網(wǎng)絡(luò)來融合3個(gè)分類器的結(jié)果,其輸入為隸屬度特征向量,輸出為輸入圖像所屬的類別號(hào)。選擇FERET數(shù)據(jù)庫“b”中40個(gè)個(gè)體,其標(biāo)號(hào)為1141~1180。對于每個(gè)個(gè)體,選取7幅圖像:ba,bj,bk,bd,be,bf和bg。它們是8bit人臉灰度圖像,具有不同的姿態(tài)和明暗變化。原始圖像的尺寸為384×256,將其降為192×128。在每一次實(shí)驗(yàn)中,對每個(gè)個(gè)體隨機(jī)選擇6幅圖像作為訓(xùn)練集合,剩下的一幅作為測試圖像。做100次識(shí)別實(shí)驗(yàn),統(tǒng)計(jì)識(shí)別率的均值和方差。采用db4把圖像分解為3層,并考慮邊界效應(yīng),得到LL1、LL2和LL3,它們的尺寸分別為99×67、53×37和30×22。表13-1給出了費(fèi)歇爾臉方法的不同分類規(guī)則的結(jié)果,包括最大隸屬度原則(LM)、最近均值原則(NM)和SVM分類原則。測試圖像包括原圖、LL1、LL2和LL3。SVM分類中,核函數(shù)采用多項(xiàng)式函數(shù),用一對一的方法解決多類問題。實(shí)驗(yàn)結(jié)果表明,基于小波變換與SVM的人臉識(shí)別優(yōu)于不同分類規(guī)則下的費(fèi)歇爾臉方法,包括最大隸屬度原則(LM)、最近均值原則(NM)和SVM分類原則。13.3簽名識(shí)別13.3.1簽名圖像預(yù)處理與特征提取

在脫機(jī)簽名識(shí)別中,特征可以從簽名圖像的各種信息載體中提取,這些信息載體包括灰度簽名、二值簽名、簽名骨架以及簽名輪廓。通過灰度濾波、歸一化、二值化和細(xì)化等預(yù)處理操作,可以得到歸一化的只包含簽名軌跡的灰度簽名、歸一化的二值簽名和歸一化的簽名骨架。圖13-6給出了一幅簽名圖像的預(yù)處理結(jié)果。圖13-6簽名圖像的預(yù)處理結(jié)果(a)原簽名圖像;(b)歸一化的二值簽名;(c)歸一化的灰度簽名;(d)歸一化的簽名骨架

1.偽動(dòng)態(tài)特征人們在書寫簽名時(shí),運(yùn)筆過程的輕重緩急及筆劃的方向都形成了一定的習(xí)慣,對應(yīng)的簽名圖像的灰度級(jí)的分布也具有一定的穩(wěn)定性,根據(jù)這一點(diǎn)可以從簽名圖像的灰度信息中提取偽動(dòng)態(tài)特征。偽動(dòng)態(tài)特征包含高灰度區(qū)域和灰度重心兩組特征。前者是個(gè)五維向量,其各維分別對應(yīng)高灰度區(qū)域面積占整個(gè)簽名面積的比例,以及根據(jù)歸一化二值簽名重心劃分的四個(gè)子區(qū)域的高灰度區(qū)域面積占整個(gè)高灰度面積的比例。后者為歸一化灰度簽名圖像重心的相對橫坐標(biāo)和相對縱坐標(biāo)。簽名中灰度較高的區(qū)域稱為高灰度區(qū)域,它代表簽名筆劃中書寫力度較大的區(qū)域,如重筆、頓筆及筆劃交叉重疊的部分。高灰度區(qū)域是根據(jù)一定的閾值從歸一化的灰度簽名圖像中提取出的。為了使高灰度區(qū)域的提取具有適應(yīng)性(與簽名時(shí)用筆、紙無關(guān)),可用動(dòng)態(tài)閾值法獲取閾值,該閾值取為前景灰度頻率峰值的70%處對應(yīng)的兩個(gè)灰度中較大的一個(gè)。高灰度特征定義為高灰度區(qū)域的像素點(diǎn)數(shù)與灰度簽名中前景像素點(diǎn)的比值。根據(jù)對應(yīng)的二值簽名的重心,把歸一化的灰度簽名圖像分為4個(gè)矩形區(qū)域。按上面的定義,提取四個(gè)子區(qū)域的高灰度特征,這樣得到的五個(gè)高灰度特征構(gòu)成了一個(gè)五維的特征向量。特征向量的每維取值在0~1之間,并具有大小、平移不變性。高灰度特征從歸一化的灰度簽名中提取得到。簽名骨架方向灰度特征是將筆劃方向與灰度相結(jié)合。其提取方法是統(tǒng)計(jì)歸一化的灰度骨架簽名上各點(diǎn)在水平(0°方向)、垂直傾斜(90°方向)、正傾斜(45°方向)和負(fù)傾斜(135°方向)四個(gè)方向上的累計(jì)灰度,由此形成一個(gè)四維向量(G1,G2,G3,G4),然后將其歸一化到0~1之間,即得到簽名骨架方向灰度特征:(13-13)

2.Zernike矩特征

Zernike矩特征取的是階為10的前36個(gè)Zernike矩,是一個(gè)36維的向量。復(fù)數(shù)Zernike矩是從Zernike多項(xiàng)式得到的:(13-14)(13-15)其中:ρ為從(x,y)到形狀質(zhì)心的半徑;θ為ρ與x軸之間的夾角;n、m為整數(shù),滿足n-|m|為偶數(shù)且|m|≤n。Zernike多項(xiàng)式為單位圓(x2+y2≤1)內(nèi)一組正交的復(fù)值函數(shù)完備集。階(order)為n、重(repetition)為m的復(fù)數(shù)Zernike矩定義為(x2+y2≤1)(13-16)這里*表示復(fù)數(shù)共軛。直到階為10的前36個(gè)Zernike矩如表13-2所示。由于Zernike基函數(shù)的定義域在單位圓內(nèi),因此在計(jì)算Zernike矩之前,必須指定此單位圓。在實(shí)現(xiàn)時(shí),將所有的形狀都?xì)w一化到單位圓內(nèi)。單位圓以形狀質(zhì)心為中心,這就使得到的Zernike矩具有平移和尺度不變性。僅利用Zernike矩的幅度作為形狀描述,可得到旋轉(zhuǎn)不變性。再將得到的幅度除以形狀質(zhì)量將其歸一化到[0,1]區(qū)間。

Zernike矩的思想與傅里葉變換的思想是類似的,即將信號(hào)擴(kuò)展為正交基序列的組合。然而,在計(jì)算Zernike矩描述符時(shí)不需要知道邊界信息,因此它更適用于描述復(fù)雜形狀。和傅里葉描述符一樣,也可以構(gòu)造任意高階的Zernike矩,這就克服了高階幾何不變矩很難構(gòu)造的缺點(diǎn)。對形狀表示的準(zhǔn)確程度依賴于從擴(kuò)展式中截取的矩?cái)?shù)目。

3.幾何特征

幾何特征是從歸一化的簽名骨架中提取的,包括簽名骨架的相對面積、寬高比、水平和垂直方向的相對重心、基線偏移量和筆畫傾斜度。

1)簽名骨架相對面積簽名骨架相對面積是歸一化二值簽名骨架中黑色像素點(diǎn)的數(shù)量與總像素?cái)?shù)的比值,它從一個(gè)側(cè)面反映了簽名中的筆畫特征。

2)簽名圖像寬高比簽名圖像寬高比就是歸一化的簽名外邊框的高度與寬度之比。一個(gè)人簽名的高度和寬度之比是相對穩(wěn)定的,可以將其作為一個(gè)特征用于身份識(shí)別。由于經(jīng)過預(yù)處理得到的歸一化二值簽名骨架已經(jīng)去除了四周的背景區(qū)域,故直接用歸一化二值簽名骨架的高度除以寬度即可得到簽名圖像寬高比。之所以用高度除以寬度,是因?yàn)橐话愫灻际菍挻笥诟?這樣可以使得寬高比的取值在0和1之間。

3)簽名骨架水平和垂直方向的相對重心簽名骨架水平和垂直方向的重心由下式計(jì)算得到:(13-17)(13-18)其中:M、N分別是歸一化的二值簽名骨架圖像的寬度和高度;b(x,y)是歸一化的二值簽名骨架中位置(x,y)處的值,若該點(diǎn)在簽名骨架上,則取值為1,否則取值為0。將得到的重心分別除以寬度和高度,即可得到水平和垂直方向的相對重心。

4)基線偏移量(BLS)基線偏移量表明簽名軌跡相對于水平方向的整體偏離程度??珊唵蔚匕褮w一化的二值簽名骨架分成等寬的左右兩部分,以兩子圖像重心的縱坐標(biāo)差值作為基線偏移量。這樣得到的基線偏移量在0上下取值,且其值一般不會(huì)超過高度的一半,為將其歸一化到0和1之間,將縱坐標(biāo)之差除以簽名高度,然后將這個(gè)比值加上0.5,即得到最終的基線偏移量:(13-19)其中:和分別是右半部分簽名和左半部分簽名的重心;N是簽名的高度。

5)筆畫傾斜度筆畫傾斜度包括垂直像素比和正傾斜像素比,它們分別是通過統(tǒng)計(jì)垂直像素和正傾斜像素占簽名骨架像素的比例得到的。對骨架上的任一點(diǎn)(x,y),若(x,y-1)處的像素點(diǎn)也在骨架上,則認(rèn)為(x,y)是一個(gè)垂直像素;若(x+1,y-1)處的像素點(diǎn)也在簽名骨架上,則認(rèn)為(x,y)同時(shí)也是一個(gè)正傾斜像素。統(tǒng)計(jì)所有的垂直像素和正傾斜像素即可得到對應(yīng)的筆畫傾斜度。13.3.2基于證據(jù)理論融合的簽名識(shí)別在脫機(jī)簽名識(shí)別中,只使用基于單一特征的神經(jīng)網(wǎng)絡(luò)分類器一般難以取得理想的識(shí)別效果。要獲得滿意的性能,有必要綜合利用反映簽名不同特性的各類特征來訓(xùn)練神經(jīng)網(wǎng)絡(luò)。但是,如果簡單地將多類特征直接輸入單個(gè)神經(jīng)網(wǎng)絡(luò)分類器進(jìn)行訓(xùn)練,會(huì)導(dǎo)致網(wǎng)絡(luò)規(guī)模過大,從而使網(wǎng)絡(luò)的訓(xùn)練變得非常困難,甚至成為一件難以完成的事情。一個(gè)合理的解決方法是使用多個(gè)小規(guī)模的神經(jīng)網(wǎng)絡(luò)分類器針對不同類別的特征分別進(jìn)行訓(xùn)練,然后組合多個(gè)小規(guī)模神經(jīng)網(wǎng)絡(luò)分類器的判決得到最后的識(shí)別結(jié)果。這樣做可以降低網(wǎng)絡(luò)規(guī)模,從而降低訓(xùn)練復(fù)雜度,同時(shí)也可以獲得較高的性能。

1.基于證據(jù)理論融合的簽名識(shí)別流程基于證據(jù)理論融合的簽名識(shí)別流程如圖13-7所示。首先,從簽名圖像的三種信息載體中提取三種識(shí)別用特征:偽動(dòng)態(tài)特征、Zernike矩特征和幾何特征;然后,將這三種特征分別輸入BP神經(jīng)網(wǎng)絡(luò)分類器得到3個(gè)初步識(shí)別結(jié)果;最后,以這3個(gè)結(jié)果為證據(jù),利用證據(jù)理論對它們進(jìn)行融合,得到最終識(shí)別結(jié)果。圖13-7基于證據(jù)理論融合的簽名識(shí)別流程

2.BP神經(jīng)網(wǎng)絡(luò)分類器對于偽動(dòng)態(tài)特征、Zernike矩特征和幾何特征,利用每種特征分別訓(xùn)練一個(gè)單隱含層的BP神經(jīng)網(wǎng)絡(luò)分類器,每個(gè)分類器的輸入節(jié)點(diǎn)數(shù)由對應(yīng)的特征維數(shù)決定,而輸出節(jié)點(diǎn)數(shù)則是簽名的類別數(shù)。由此構(gòu)造的3個(gè)BP神經(jīng)網(wǎng)絡(luò)分類器的輸入層節(jié)點(diǎn)數(shù)分別是7、36和7,輸出層節(jié)點(diǎn)數(shù)則為25,對應(yīng)簽名的類別數(shù)。

3.證據(jù)理論融合只使用一種特征得到的正確識(shí)別率一般難以達(dá)到實(shí)用要求,需要綜合利用從簽名圖像中提取的多種特征以提高系統(tǒng)識(shí)別率。我們將每種特征對應(yīng)的神經(jīng)網(wǎng)絡(luò)分類器的輸出作為一條證據(jù),利用證據(jù)理論對來自不同分類器的識(shí)別結(jié)果進(jìn)行融合,從而得到最終的識(shí)別結(jié)果。分類器的輸出有三個(gè)層次,分別是抽象層輸出、排序?qū)虞敵龊投攘繉虞敵?。神?jīng)網(wǎng)絡(luò)分類器的輸出結(jié)果在度量層上,比抽象層輸出和排序?qū)虞敵瞿軌蛱峁└嗟男畔?。同時(shí),考慮到分類器本身的可靠性不可能達(dá)到100%,我們把不可信的部分賦值給整個(gè)辨識(shí)框架。假設(shè)一個(gè)神經(jīng)網(wǎng)絡(luò)分類器在測試集上得到的正確識(shí)別率是εr,則認(rèn)為該分類器的輸出結(jié)果的可靠程度為εr,而其對整個(gè)辨識(shí)框架的支持度則被認(rèn)為是1-εr。設(shè)T1,T2,…,TM為總的簽名類別數(shù),共M類,令辨識(shí)框架Θ={T1,T2,…,TM}。若一個(gè)神經(jīng)網(wǎng)絡(luò)分類器的可靠度為εr,分類器的輸出為y1,y2,…,yM,將其歸一化為y′1,y′2,…,y′M,即可得到該分類器對應(yīng)的證據(jù)m:(13-20)(13-21)利用Dempster證據(jù)理論合成公式分別對三個(gè)分類器提供的三條證據(jù)進(jìn)行合成,得到新的證據(jù)m。也可以采用如下改進(jìn)的證據(jù)理論合成公式,則n個(gè)證據(jù)m1,m2,…,mn的合成結(jié)果為(13-22)(13-23)其中,m∩(A)為證據(jù)的交運(yùn)算:(13-24)為證據(jù)之間的沖突概率;這里,把證據(jù)沖突概率按各個(gè)命題的平均支持程度加權(quán)進(jìn)行分配,即(13-25)q(A)為證據(jù)對A的平均支持程度。由于組合后的新證據(jù)的焦元是單元素集,因此對應(yīng)的信任函數(shù)為(13-26)取具有最大信任度函數(shù)對應(yīng)的類別作為融合后的識(shí)別結(jié)果。

4.實(shí)驗(yàn)結(jié)果實(shí)驗(yàn)所用的一個(gè)測試簽名數(shù)據(jù)庫包括不同年齡段的17位男性、8位女性,共25人,每人8個(gè)簽名,共200個(gè)簽名。對每個(gè)人的8個(gè)簽名,取其中的6個(gè)簽名作為參考簽名,另外2個(gè)用于測試。隨機(jī)生成參考集與測試集,并重復(fù)多次實(shí)驗(yàn),取平均識(shí)別率作為實(shí)驗(yàn)結(jié)果。表13-3給出了10次實(shí)驗(yàn)的結(jié)果,作為比較,表中同時(shí)給出了各種特征分別通過BP神經(jīng)網(wǎng)絡(luò)分類器得到的識(shí)別結(jié)果。由表13-3可以看出,基于證據(jù)理論的融合簽名識(shí)別方法能有效提高系統(tǒng)的正確識(shí)別率,并且,利用改進(jìn)的合成公式得到的識(shí)別結(jié)果要好于基本合成公式(Dempster)。13.4車牌識(shí)別13.4.1車牌識(shí)別系統(tǒng)簡介如圖13-8所示,車牌識(shí)別系統(tǒng)主要由三部分組成:圖像輸入、牌照定位與分割、字符識(shí)別。圖13-8車牌識(shí)別系統(tǒng)流程圖圖像輸入是指利用攝像機(jī)獲取包含車輛的圖像。在攝像機(jī)前方的檢測點(diǎn)安裝傳感器,當(dāng)汽車通過檢測點(diǎn)時(shí),傳感器向主機(jī)發(fā)出信號(hào),系統(tǒng)自動(dòng)攝下車輛的圖像,并將圖像輸入計(jì)算機(jī)。牌照定位與分割是在包含車輛的圖像中找到牌照區(qū)域的位置,并把牌照區(qū)域分割出來,得到牌照圖像。牌照定位決定其后的車牌字符識(shí)別,因此牌照定位是識(shí)別系統(tǒng)的關(guān)鍵。字符識(shí)別就是采用光學(xué)字符識(shí)別(OCR)技術(shù)對牌照圖像進(jìn)行識(shí)別,得到車牌號(hào)碼,包括漢字、英文字母和阿拉伯?dāng)?shù)字。在牌照識(shí)別中,需要利用光學(xué)字符識(shí)別(OCR)技術(shù)識(shí)別出牌照圖像中的印刷體漢字、英文字母和阿拉伯?dāng)?shù)字,得到車牌號(hào)碼??梢愿鶕?jù)目前標(biāo)準(zhǔn)車牌中字符的具體排列順序,設(shè)計(jì)不同的分類器。其中:印刷體漢字包括各省、直轄市的簡稱或軍警;英文字母為26個(gè)大寫字母;阿拉伯?dāng)?shù)字為0,1,…,9。光學(xué)字符識(shí)別先要使識(shí)別系統(tǒng)學(xué)習(xí)待辨識(shí)字符的特征,然后再利用這些先驗(yàn)知識(shí)對輸入圖像進(jìn)行判決,得到字符的識(shí)別結(jié)果。字符的特征包括平面上的點(diǎn)陣位置特征、頻率特征、投影特征、語義特征等。光學(xué)字符識(shí)別已經(jīng)比較成熟,達(dá)到了實(shí)用水平。下面簡要介紹車牌圖像定位分割。13.4.2車牌圖像定位分割算法

經(jīng)過大量實(shí)驗(yàn)數(shù)據(jù)發(fā)現(xiàn),所有車輛牌照具有以下特征:

(1)目前車輛牌照的具體排列格式是由一個(gè)省份漢字(軍警牌則為其他字)后跟字母或阿拉伯?dāng)?shù)字組成的7個(gè)字序列。標(biāo)準(zhǔn)車牌的具體排列格式是:X1X2·X3X4X5X6X7,X1是各省、直轄市的簡稱或軍警,X2是英文字母,X3X4是英文字母或阿拉伯?dāng)?shù)字,X5X6X7是阿拉伯?dāng)?shù)字。除第一個(gè)漢字外,字母或數(shù)字的筆畫在豎直方向都是連通的。

(2)車輛牌照區(qū)域牌底與牌字顏色相差較大,邊緣非常豐富。

(3)車輛牌照子圖像區(qū)域長高比例一定,車牌原始尺寸每個(gè)字寬45mm,字高90mm,間隔符寬10mm,每個(gè)單元間隔12mm。根據(jù)汽車牌照的特點(diǎn),需要充分利用這些特征,并結(jié)合一系列圖像處理,對車輛牌照進(jìn)行定位與分割。車輛牌照定位與分割算法的關(guān)鍵步驟主要包括灰度化、灰度拉伸、邊緣檢測與模板匹配。

1.灰度化

為了便于后續(xù)的快速圖像處理,以及對不同顏色的車輛牌照進(jìn)行統(tǒng)一處理,需要把攝像頭拍到的含車輛的圖像由24位真彩色轉(zhuǎn)化成灰度圖。一般采用現(xiàn)行標(biāo)準(zhǔn)的平均值法:其中:

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論