基于RBF神經網絡的復雜場景人群目標的識別_第1頁
基于RBF神經網絡的復雜場景人群目標的識別_第2頁
基于RBF神經網絡的復雜場景人群目標的識別_第3頁
基于RBF神經網絡的復雜場景人群目標的識別_第4頁
基于RBF神經網絡的復雜場景人群目標的識別_第5頁
已閱讀5頁,還剩4頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

1、基于RBF神經網絡的復雜場景人群目標的識別第33卷第4期北京交通大學學報AL0FBEIJINGJIAOTONGUNIVERSITYVol_33NO.4Ang.20o9文章編號:1673.0291(2009)04.002905基于RBF神經網絡的復雜場景人群目標的識別方衛(wèi)寧,胡清梅一,李娜b,郭北苑(北京交通大學a.軌道交通控制與安全國家重點實驗室;b.機械與電子控制工程學院,北京100044)摘要:大型公共建筑內人群數目及分布的在線監(jiān)測是有效控制和疏散客流,保障人員安全的重要依據之一.利用公共建筑內現(xiàn)有的閉路電視監(jiān)視系統(tǒng),通過計算機視覺技術實現(xiàn)人群數目的自動識別是目前國外普遍采用的一種方式.文

2、中提出了一種基于RBF神經網絡的復雜場景人群目標的識別算法,利用包含行人數目信息的前景圖像的投影曲線等特征數據,通過訓練好的RBF神經網絡直接得到該前景圖像中包含的人群數目.與其他算法相比,該算法具有較高的識別準確率,在一定誤差范圍內可以達到較好的效果.關鍵詞:人群識別;圖像處理;RBF神經網絡中圖分類號:TP391.41文獻標志碼:ARecognizingthePassengerNumberinComplexScenesbyRBFNeuralNetworkFANGWeining,HUQingmei一,LINa,GUOBeiyuan(a.StateKeyLaboratoryofRailTraf

3、ficControlandSafety,b.SchoolofMechanicalandElectronicControlEngineering,BeijingJiaotongUniversity,Beijing100044,China)Abstr,thepresentedmethodislowtimeconsumingandhighprecise.Keywords:crowdrecognition;imageprocess;RBFneuralnetwork目前常用的關于人群識別的算法有基于形狀信息的方法,基于運動特性的方法,基于行人模型的方法,基于立體視覺的方法和基于小波特征及支持向量機(Su

4、pportVectorMachine,SVW)的方法等1-5.這些行人檢測算法通常由兩部分組成:圖像分割(假設生成)和目標識別(假設驗證).圖像分割主要是為了得到可能存在行人的區(qū)域;目標識別則是對候選對象進行分類,判斷其是否為行人.然而在視頻中檢測行人并不簡單,尤其在復雜環(huán)境下,行人姿態(tài)多種多樣,背景中的很多物體容易被誤識別,這就需要在復雜情況下檢測算法具有較好的魯棒性,同時必須具有較好的實時性.為此本文作者提出了一種基于RBF神經網絡的方法,用包含了行人數目信息的前景圖像的投影曲線等特征數據,通過訓練好的RBF神經網絡直接得到該前景圖像中包含的客流數目,提高了算法效率和識別精度.收稿日期:2

5、008.1023基金項目:北京市自然科學基金資助項目(9052007)作者簡介:方衛(wèi)寧(1968一),男,浙江杭州人,教授,博士,博士生導師.entail:.CYI北京交通大學學報第33卷1基于自適應背景差分的圖像分割自適應背景模型是考慮到環(huán)境中的光線變化等因素而提出的一種可以不斷更新的背景模型,利用圖像和自適應背景模型的差分可以有效的分割圖像,得到包含目標的前景圖像.文中采用的是基于Kalman濾波器的自適應背景模型.Kalman自適應背景模型的提取分為兩個步驟:背景預測和背景校核.背景圖像的預測公式為(,Y,t)f-B(,Y,ti_1)l云止l臺y-1)j2X1

6、式中:(,Y,t一1)表示t一1時刻修正后的背景圖像(,y)處的灰度值;B(,Y,t)表示依照tl時刻的背景圖像預測出的t時刻的背景圖像的灰度值;(,Y,t)為t時刻的預測誤差;(,Y,t一1)為時刻的修正誤差;A=【三:】為預測矩陣,由文獻6給出.背景圖像的校核公式為(,Y,t)日(,Y,ti)l會(x,y,ti)j2×1l云(x,y,ti)j2X1+k(,Y,t)B(,Y,t)一(,Y,ti)1lBYt)j2×1jL(,),v1式中:曰(,Y,)為t時刻的輸入圖像的灰度值;日(,Y,t)為測量矩陣,若不考慮預測誤差的影響,取日(,Y,ti)=1,0;Ji;:(,Y,t)

7、=g(,Y,t),g(,Y,t)為Kalman濾波增益,其中g(,Y,t)=aM(,Y,t一1)+(1一M(,Y,t一1),這里,a表示前景的增益值,表示背景的增益值;(,Y,t1)=f1I(,Y,t1)一(,Y,t一1)Ithdl0.l.為增益值的取值,thd為設定的閾值.計算某一時刻的背景模型時,首先利用上一時刻的背景模型,按照式(1)得到當前時刻的背景預測,然后將背景預測帶入式(2)進行校核.圖像分割算法如下:1)分配圖像處理的中問過程中圖像的存儲空間和+1,并初始化內存值.2)分配閾值的初始值t初始背景模型的存儲空間為B,將預先準備好的空背景圖像的像素值賦給0.3)分配Kalman濾波

8、器中各個變量參數Kalman增益(包含前景增益和背景增益),預測矩陣A,測量矩陣日的內存地址,并為參數賦值.4)輸入待處理圖像ProcessImage,應用Kalman濾波公式計算背景差分圖像,并更新各個狀態(tài)變量.5)將處理后二值化圖像KalImage輸出.6)清空分配的各個內存單元.利用Kalman自適應背景模型差分后得到的圖像見圖1.其中,背景為白色,前景區(qū)域為黑色.(a)場景a(b)場景a的背景差分效果圖1某場景及其背景差分效果Fig.1Asceneanditsbackgrounddifferenceresults可以看出,Kalman自適應背景模型能比較準確地分割圖像.對于環(huán)境光線變化

9、的處理,尤其在室外等光線變化比較顯著的環(huán)境中,自適應背景減除算法比傳統(tǒng)的基礎背景減除算法的效果有明顯改善.2基于砌神經網絡人群目標識別基于RBF神經網絡行人數目識別的方法同樣避免了識別每個行人個體,它利用包含行人數目信息的前景圖像的投影曲線等特征數據,通過訓練好的RBF神經網絡可以直接得到該前景圖像中包含的行人數目.2.1RBF神經網絡如圖2所示,RBF網絡結構包括3層:第1層為輸入層由信號源節(jié)點組成;第2層為隱含層;第3層第4期方衛(wèi)寧等:基于RBF神經網絡的復雜場景人群目標的識別3為輸出層.輸入輸出層神經元的個數是由實際問題決定的,而隱層的神經元個數可以憑經驗選取,或通過其他方法確定.隱層神

10、經元通過激發(fā)函數對輸入模式的作用作出響應.激發(fā)函數一般采用徑向基函數(RBF),它是一種局部分布的對中心點徑向對稱衰減非負非線性函數,一般采用高斯基函數,即,IX-UiII,F()=叫eI一廣J(3)i:1式中:叫;U和盯為網絡需要學習的參數.輸入層I隱含層I輸出層圖2RBF神經網絡結構圖Fig.2StructureofRBFneuralnetwork構成RBF網絡的基本思想是:用RBF作為隱單元的”基”構成隱含空間,這樣就可將輸入矢量直接(即不通過權連接)映射到隱空間,這種映射關系是非線性的.當RBF的中心向量,中心半徑和隱層個數確定以后,這種映射關系就確定了.而隱層空間到輸出空間的映射是線

11、性的,即網絡的輸出是隱單元的線性加權和,此處的權即為網絡可調參數.RBF網絡隱層所用的激勵函數是徑向基函數型.在經過輸入緩沖層以后,隱層神經元并不直接接受輸入向量,而是先進行”距離”測量,即測量輸入向量到徑向基函數中心的距離.假定隱層個數,徑向基函數的中心向量,基函數寬度,從隱層到輸出層的連接權值,已經通過學習確定了.以單個樣本為例,RBF神經網絡求解的工作原理為:1)設已知i樣本的輸入向量為Xi=(Xil,2,XiM)(4)式中為輸入向量的維數,也是隱層神經元中心向量的維數.2)選擇徑向基函數為高斯函數,則對i樣本,第個隱層神經元的輸人模型為A:(妻)k=1(k:1,2,M;=1,2,)(5

12、)式中:Xik為置輸入向量的第k個分量;為第.個隱層神經元基函數中心向量的第k個分量;為第個隱層神經元基函數寬度;L為隱層神經元個數.3)隱層節(jié)點的輸出模型為Bi=exp(一Aj/2)(6)4)網絡輸出節(jié)點的實際輸出為三y曩,=Bij(k=1,2,S)(7)=1式中:COk,i為隱層神經元至輸出層神經元k的連接權值;S為輸出神經元的個數.通過式(7)即可求得對于i樣本輸入向量的實際輸出結果為y=(yil,yi2,yis)(8)則該樣本誤差目標函數為1三E=去(Y一yik,)(9).k=1式中:E是i樣本的實際輸出和期望輸出的平方誤差,用來判斷所求結果的優(yōu)劣.2.2基于RBF網絡的人群數據識別利

13、用RBF網絡獲取客流數據的關鍵在于RBF網絡的構建,即確定作為網絡輸入向量的特征的選取,作為網絡輸出的輸出向量的選取,以及網絡參數的確定,如,L,S等.選取行人垂直投影曲線作為網絡的輸人向量.具體獲取步驟為:1)根據上述提到的自適應背景減除方法,進行圖像分割后得到了包含行人的前景區(qū)域,如圖3所示.為了減少攝像頭的景深帶來的成像大小變化,選取靠近攝像頭的子區(qū)域作為檢測區(qū)域.圖3選取檢測區(qū)域Fig.3Selectionofdetectionregion2)利用矩形模板提取檢測區(qū)域的行人投影曲線,如圖4中所示.將矩形模板在檢測區(qū)域內自左向右依次統(tǒng)計出每個像素位置處矩形模板內的黑色像素,即前景像素占整

14、個模板像素的百分比.處理后即可得到該檢測區(qū)域內的前景投影數據曲線.其中,縱坐標Y表示該位置處黑色像素占模板像素總數的百分比.3)對上一步驟中得到的投影曲線進行篩選,去除由于噪聲產生的非行人投影曲線,得到表示行人的投影曲線.選用的篩選閾值有兩個:最小百分比g32北京交通大學學報第33卷1.0O.8O.6置O40.20曲線11曲線2:曲線3lIlI-II.俐;O5010ol50200模板位置/pixel圖4行人投影曲線Fig.4Theprojectioncurveofpedestrians和最小寬度f.即,只有當曲線的值大于g且曲線寬度大于f時,才認為該曲線代表行人,否則認為是噪聲曲線.通過g和z

15、兩個閾值的篩選,可以得到檢測區(qū)域中各個代表行人的曲線.圖4是對圖3前景投影曲線篩選的結果.可以看出有3個曲線滿足要求,分別代表了不同的行人投影曲線.4)為了將獲得的行人投影曲線轉化成為神經網絡的輸人向量,需對其進行進一步的處理.如圖5所示.使用一個像素寬的數據窗口在被處理的行人投影曲線上,按照一定的步長像素自左向右一步一步地移動.在每一步中,提取數據窗口范圍內投影曲線的Y值,從而將該段投影曲線分割成/7,維的數據向量.將這個n維的數據向量作為RBF網絡的輸入向量,可以得到n個輸出值,其和即為該投影曲線代表的人數.1ws圖5利用RBF網絡識別投影曲線示意圖Fig.5Methodofdetecti

16、ngeffectivecurvewithRBFnetwork3實驗分析3.1實驗平臺實驗軟硬件環(huán)境:普通CCD攝像頭,MatroxCrona圖像采集卡,P41.5GHzCPU,256M內存;采集圖像格式為Windows位圖(BMP),大小為384pixels×288pixels;在MicroSoftVisualC+的開發(fā)環(huán)境下完成算法的實現(xiàn).3.2RBF神經網絡的訓練利用Matlab的newrb函數完成了RBF神經網絡的構建,該函數主要用于設計一個徑向基網絡,即net=newrb(P,T,GOAL,SPREAD).其中:P為輸入向量;T為目標向量;GOAL為均方誤差,缺省時的值為0.

17、0;SPREAD為徑向基函數的分布,缺省時的值為1.0.說明用徑向基函數網絡逼近函數時,newrb可自動增加徑向基網絡的隱層神經元,直到均方誤差滿足為止.3.3通道場景人群目標識別構造通道場景的RBF神經網絡時,選用70張圖像,提取其中175個行人投影曲線作為網絡的輸入向量P,并統(tǒng)計出這些行人投影曲線實際代表的人數作為目標輸出向量.在Matlab中調用newrb函數進行神經網絡的設計,設定函數參數GOAL=0.001,SPREAD=1.0,得到的RBF神經網絡由101個隱層神經元構成,利用該神經網絡對選出的87幅通道圖像進行仿真檢測.以算法執(zhí)行時間,即該算法編制的程序在計算機上運行時所消耗的時

18、間,來度量算法效率,本算法需時140S,而傳統(tǒng)的可變模板匹配算法需要耗時2500S,相比而言大大提高了算法效率.以人數錯檢率(錯檢人數/實際總人數)來衡量識別準確率的高低,統(tǒng)計87幅圖像的檢測效果如下:低密度行人圖像的人數錯檢率為5.38%,高密度行人圖像的人數錯檢率為3.78%,所有圖像的人數錯檢率為4.17%.其中錯檢包括了誤檢和漏檢兩種情況.可以看出,通道場景中的檢測效果比較理想,識別準確率達到95%以上,相比傳統(tǒng)的客流識別算法,如基于前景像素面積比例的客流人數識別算法(識別精度在85%90%),識別精度提高了5%以卜.4結論針對多目標識別,提出了一種基于RBF神經網絡的客流數據識別算法

19、,并將其應用于通道場景人群目標識別,相對傳統(tǒng)客流識別算法而言,大大提高了算法效率和識別精度.該檢測方法針對形態(tài)復雜的人群,對于嚴重遮擋現(xiàn)象不能識別的問題還有待于進一步完善.參考文獻:1GavrilaDM,GiebelJ,eta1.VisionBasedPedestrianDe.tection:theProtectorSystemcJ/Proc.oftheIEEEIn.第4期方衛(wèi)寧等:基于RBF神經網絡的復雜場景人群目標的識別33telligentVehiclesSymposium.Parma,Italy:InstituteofElectricalandElectronicsEngineersI

20、nc.2004:1417.2CristobalCurio,JohannEdelbrunner,ThosmasKalinke,eta1.WalkingPedestrianRecognitionJ.IEEETransac-tionsonITS,2000,1(3):155163.3GrayD,TaoH.ViewpointInvariantPedestrianRecogni?tionwithanEnsembleofLocalizedFeaturesCJInc:ComputerVision:ECCV2008.France,Marseille:Springer,2008:262275.4沙玲,呂朝輝.立體

21、視覺測量中的一種攝像機標定方法J.機械制造,2003,41(5):10一l1.SHALing.LUChaohui.ACameraCalibrationMethodforStereoscopicVisionMeasurementlJJ.Machinery,2003,41(5):1011.(inChinese)5AndreoneL,Be11ottiF,GloriaADe,eta1.SVMBasedPedestrianRecognitiononNear-InfraRedImagesC-,Inc:ISPA2005:Proceedingsofthe4thInternationalSymposiumonI

22、mageandSignalProcessingandAnalysis.Croatia,Zagreb:InstituteofElectricalandElectronicsEngineersComputerSociety.2005:274278.6阮鵬,趙明生.一種頭肩像序列的人臉快速定位算法J.計算機工程及應用,2003,39(29):125127.RUANPeng,ZHAOMingsheng.AFastFaceLocationAlgorithmforHead-and.ShoulderSequencelJj.ComputerEngineeringandApplications,2003,39(

23、29):125127.(inChinese)7陳鳳東,洪炳镕.基于動態(tài)閾值背景差分算法的目標檢測方法J.哈爾濱工業(yè)大學學報,2005,37(7):883884.CHENFengdong,HONGBingrong.ObjectDetectingMethodBasedon.BackgroundImageDifferenceUsingDynamicThreshold【J.JournalofHarbinInstituteofTechnology,2005,37(7):883884.(inChinese)I-?1?-,?|l?-:l(上接第17頁)WANGMengshu,HUANGFuming.KeyP

24、roblemsonSubseaTunnelConstructionlJ.JournalofArchitectureandCivilEngineering,2005,22(4):14.(inChinese)4張頂立.海底隧道不良地質體及結構界面的變形控制技術J.巖石力學與工程學報,2007,26(11):21612169.ZHANGDingli.DeformationControlTechniquesofUnfavorableGeologicBodiesandDiscontinuousSurfacesinSubseaTunnelJ.ChineseJournalofRockMechanicsandEngineering,2007,26(11):21612169.(inChinese)5劉君.廈門東通道海底隧道位移判定基準研究J.隧道建沒,2006,26(3):1113.LIUJun.StudyonDisplacementJudgementCriteriaofSub-SeaTunnelonXiamenEastPassagelJ.TunnelConstruction,2006,26(3):1113.(inChinese)6楊澤平,李海兵.層次分析法在工程巖體分類中的應用J.工程地質學報,2006,14(6):830834.YANGZeping,LI

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論