深度學(xué)習(xí)基礎(chǔ)課件_第1頁(yè)
深度學(xué)習(xí)基礎(chǔ)課件_第2頁(yè)
深度學(xué)習(xí)基礎(chǔ)課件_第3頁(yè)
深度學(xué)習(xí)基礎(chǔ)課件_第4頁(yè)
深度學(xué)習(xí)基礎(chǔ)課件_第5頁(yè)
已閱讀5頁(yè),還剩11頁(yè)未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

基于YOLO的圖像識(shí)別基于YOLO的圖像識(shí)別1目錄CONTENTS1問(wèn)題概述2YOLO簡(jiǎn)介與原理4使用數(shù)據(jù)及結(jié)果3YOLO代價(jià)函數(shù)目錄CONTENTS1問(wèn)題概述2YOLO簡(jiǎn)介與原理4使用數(shù)PART01問(wèn)題概述PART01問(wèn)題概述圖像是指物體的描述信息,數(shù)字圖像是一個(gè)物體的數(shù)字表示。視覺(jué)是人類(lèi)感知外部世界的最重要手段,據(jù)統(tǒng)計(jì),在人類(lèi)獲取的信息中,視覺(jué)信息占60%,而圖像正式人類(lèi)獲取信息的重要途徑,因此,和視覺(jué)緊密相關(guān)的數(shù)字圖像處理技術(shù)的項(xiàng)目的開(kāi)發(fā)越來(lái)越受到人們的關(guān)注,逐漸形成圖像識(shí)別技術(shù)。

隨著數(shù)字圖像處理技術(shù)的發(fā)展和實(shí)際應(yīng)用的需求。許多問(wèn)題不要求其輸出結(jié)果是一幅完整的圖像本身,而是將經(jīng)過(guò)一定處理后的圖像再分割和描述,提取有效的特征,進(jìn)而加以判斷分類(lèi),這種技術(shù)就是圖像的模式識(shí)別。圖像是指物體的描述信息,數(shù)字圖像是一個(gè)物體的數(shù)字表示。視覺(jué)是4PART02YOLO簡(jiǎn)介PART02YOLO簡(jiǎn)介這個(gè)confidence代表了所預(yù)測(cè)的box中含有

object的置信度和這個(gè)box預(yù)測(cè)的有多準(zhǔn)兩重信息其中如果有object落在一個(gè)gridcell里,第一項(xiàng)取1,否則取0。第二項(xiàng)是預(yù)測(cè)的boundingbox和實(shí)際的groundtruth之間的IOU值。

YOLO算法YOLO為一種新的目標(biāo)檢測(cè)方法,該方法的特點(diǎn)是實(shí)現(xiàn)快速檢測(cè)的同時(shí)還達(dá)到較高的準(zhǔn)確率。作者將目標(biāo)檢測(cè)任務(wù)看作目標(biāo)區(qū)域預(yù)測(cè)和類(lèi)別預(yù)測(cè)的回歸問(wèn)題。核心思想將一幅圖像分成SxS個(gè)網(wǎng)格(gridcell),如果某個(gè)object的中心落在這個(gè)網(wǎng)格中,則這個(gè)網(wǎng)格負(fù)責(zé)預(yù)測(cè)這個(gè)object。每個(gè)網(wǎng)格要預(yù)測(cè)B個(gè)boundingbox,每個(gè)boundingbox除了要回歸自身的位置之外,還要附帶預(yù)測(cè)一個(gè)confidence值,即每個(gè)box要預(yù)測(cè)(x,y,w,h)和confidence共5個(gè)值。[Redmonetal.,2015,YouOnlyLookOnce:Unifiedreal-timeobjectdetection]這個(gè)confidence代表了所預(yù)測(cè)的box中含有YOLO算Yolov3的改進(jìn)yolov3采用多尺度預(yù)測(cè)。(13*13)(26*26)(52*52)2.原論文時(shí)基于coco數(shù)據(jù)集的,而本實(shí)驗(yàn)是要檢測(cè)汽車(chē),所以先驗(yàn)框的大小可能有所不同,先通過(guò)k_means聚類(lèi)算法得到本實(shí)驗(yàn)的先驗(yàn)框的大小:40,30,60,42,89,69,93,276,127,94,148,53,223,114,339,172,418,3293.YOLO的CNN網(wǎng)絡(luò)把圖片分成S*S個(gè)網(wǎng)格(13*13,26*26,52*52),然后每個(gè)單元格負(fù)責(zé)去檢測(cè)那些中心點(diǎn)落在該格子內(nèi)的目標(biāo)。每個(gè)單元格需要預(yù)測(cè)3*(4+1+B)個(gè)值。如果將輸入圖片劃分為S*S網(wǎng)格,那么每層最終預(yù)測(cè)值為S*S*3*(4+1+B)大小的張量。(B為類(lèi)別數(shù))(52*52)(26*26)(13*13)Yolov3的改進(jìn)yolov3采用多尺度預(yù)測(cè)。(52*52)7YOLO_v3結(jié)構(gòu)圖如下所示DBL:就是卷積+BN+Leaky_relu,共同構(gòu)成了最小組件。resn:n代表數(shù)字,有res1,res2,…,res8等等,表示這個(gè)res_block里含有多少個(gè)res_unit。這是yolo_v3的大組件,yolo_v3開(kāi)始借鑒了ResNet的殘差結(jié)構(gòu),使用這種結(jié)構(gòu)可以讓網(wǎng)絡(luò)結(jié)構(gòu)更深。concat:張量拼接。將darknet中間層和后面的某一層的上采樣進(jìn)行拼接。拼接的操作和殘差層add的操作是不一樣的,拼接會(huì)擴(kuò)充張量的維度,而add只是直接相加不會(huì)導(dǎo)致張量維度的改變。YOLO_v3結(jié)構(gòu)圖如下所示DBL:就是卷積+BN+PART03YOLO代價(jià)函數(shù)PART03YOLO代價(jià)函數(shù)代價(jià)函數(shù)誤差=定位誤差+分類(lèi)誤差誤差=定位誤差+置信度誤差+分類(lèi)誤差誤差=定位誤差+包含目標(biāo)的框置信度誤差 +不包含目標(biāo)的框置信度誤差+分類(lèi)誤差Output:SxSx(5*B+C)的一個(gè)tensorB:(x,y,w,h,confidence)C:識(shí)別的類(lèi)的數(shù)量不能等值加權(quán)置信度有兩類(lèi)代價(jià)函數(shù)誤差=定位誤差+分類(lèi)誤差誤差=定位誤差10代價(jià)函數(shù)采用平方根之差兼顧大框和小框的誤差代價(jià)函數(shù)采用平方根之差兼顧大框和小框的誤差11PART04使用數(shù)據(jù)及結(jié)果PART04使用數(shù)據(jù)及結(jié)果訓(xùn)練數(shù)據(jù)與測(cè)試數(shù)據(jù)本次使用的數(shù)據(jù)為152張圖片文件,與已經(jīng)對(duì)這些圖片中的車(chē)輛信息標(biāo)注好的XML文件作為訓(xùn)練數(shù)據(jù),而使用130張圖片作為測(cè)試數(shù)據(jù),52張圖片作為驗(yàn)證數(shù)據(jù),4張圖片為一個(gè)batch,示例如下所示:訓(xùn)練數(shù)據(jù)與測(cè)試數(shù)據(jù)本次使用的數(shù)據(jù)為152張圖片文件,與已經(jīng)對(duì)結(jié)果展示如下圖所示,為YOLO識(shí)別結(jié)果,可以清楚地看到,圖像中車(chē)輛已被識(shí)別出來(lái)結(jié)果展示如下圖所示,為YOLO識(shí)別結(jié)果,可以清楚地看到,圖像結(jié)果展示下圖是訓(xùn)練集,測(cè)試集損失函數(shù)以及學(xué)習(xí)率的學(xué)習(xí)曲線,訓(xùn)練集的誤差,驗(yàn)證集誤差不斷減小,先用三層網(wǎng)絡(luò)預(yù)訓(xùn)練200輪,學(xué)習(xí)率為0.00005,預(yù)訓(xùn)練結(jié)束后用全部網(wǎng)絡(luò)訓(xùn)練,改變學(xué)習(xí)率為0.000001,若loss值在5個(gè)以內(nèi)沒(méi)有超過(guò)閾值,就進(jìn)行10倍的衰減,對(duì)

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論