《深度學(xué)習(xí)項(xiàng)目案例開(kāi)發(fā)》課件-任務(wù)二:使用卷積神經(jīng)網(wǎng)絡(luò)完成貓狗識(shí)別_第1頁(yè)
《深度學(xué)習(xí)項(xiàng)目案例開(kāi)發(fā)》課件-任務(wù)二:使用卷積神經(jīng)網(wǎng)絡(luò)完成貓狗識(shí)別_第2頁(yè)
《深度學(xué)習(xí)項(xiàng)目案例開(kāi)發(fā)》課件-任務(wù)二:使用卷積神經(jīng)網(wǎng)絡(luò)完成貓狗識(shí)別_第3頁(yè)
《深度學(xué)習(xí)項(xiàng)目案例開(kāi)發(fā)》課件-任務(wù)二:使用卷積神經(jīng)網(wǎng)絡(luò)完成貓狗識(shí)別_第4頁(yè)
《深度學(xué)習(xí)項(xiàng)目案例開(kāi)發(fā)》課件-任務(wù)二:使用卷積神經(jīng)網(wǎng)絡(luò)完成貓狗識(shí)別_第5頁(yè)
已閱讀5頁(yè),還剩51頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

任務(wù)知識(shí)——卷積人工智能學(xué)院—任務(wù)二:使用卷積神經(jīng)網(wǎng)絡(luò)完成貓狗識(shí)別任務(wù)導(dǎo)入01任務(wù)目標(biāo)02任務(wù)導(dǎo)學(xué)03任務(wù)知識(shí)點(diǎn)04任務(wù)導(dǎo)入/01貓狗識(shí)別是一個(gè)經(jīng)典的圖像分類問(wèn)題,目標(biāo)是根據(jù)輸入的圖像判斷其中是否包含貓或狗。卷積神經(jīng)網(wǎng)絡(luò)(CNN)是一種深度學(xué)習(xí)模型,特別適用于處理圖像數(shù)據(jù)。它們能夠從輸入圖像中提取局部特征,并利用這些特征進(jìn)行分類。本任務(wù)使用卷積神經(jīng)網(wǎng)絡(luò)(CNN)訓(xùn)練一個(gè)模型完成貓狗識(shí)別。任務(wù)導(dǎo)入任務(wù)目標(biāo)/02任務(wù)目標(biāo)理解深度學(xué)習(xí)過(guò)擬合及其應(yīng)對(duì)策略了解卷積神經(jīng)網(wǎng)絡(luò)的基本結(jié)構(gòu)理解卷積運(yùn)算的原理及作用了解池化層的原理及作用理解激活函數(shù)在CNN中的應(yīng)用知識(shí)目標(biāo)能優(yōu)化和調(diào)整CNN架構(gòu)能進(jìn)行模型調(diào)優(yōu)和超參數(shù)搜索拓展能力能識(shí)別模型過(guò)擬合的現(xiàn)象和原因能進(jìn)行數(shù)據(jù)預(yù)處理能構(gòu)建卷積神經(jīng)網(wǎng)絡(luò)能完成模型的訓(xùn)練和評(píng)估能進(jìn)行模型的調(diào)參和優(yōu)化能力目標(biāo)任務(wù)導(dǎo)學(xué)/03卷積神經(jīng)網(wǎng)絡(luò)通過(guò)卷積操作來(lái)提取圖像等數(shù)據(jù)的特征,從而實(shí)現(xiàn)對(duì)數(shù)據(jù)的分類、識(shí)別等任務(wù)。定義卷積層、池化層、激活函數(shù)、全連接層以及可選的正則化層。結(jié)構(gòu)通常使用反向傳播算法來(lái)調(diào)整連接權(quán)重,以最小化預(yù)測(cè)輸出與實(shí)際輸出之間的誤差。

訓(xùn)練用途特別適用于處理具有網(wǎng)格結(jié)構(gòu)數(shù)據(jù)的任務(wù),如圖像和視頻識(shí)別。任務(wù)導(dǎo)學(xué)任務(wù)知識(shí)/04參數(shù)量大:全連接層中的每個(gè)神經(jīng)元都與前一層的所有神經(jīng)元相連接,導(dǎo)致參數(shù)數(shù)量呈二次增長(zhǎng)。容易過(guò)擬合:由于參數(shù)數(shù)量龐大,容易在訓(xùn)練集上過(guò)度擬合,導(dǎo)致在測(cè)試集上的性能下降。不考慮空間結(jié)構(gòu):對(duì)輸入數(shù)據(jù)進(jìn)行扁平化處理,丟失了數(shù)據(jù)的二維結(jié)構(gòu)信息。計(jì)算資源消耗大:訓(xùn)練和推理時(shí)需要較大的計(jì)算資源。特別是在大規(guī)模數(shù)據(jù)和復(fù)雜模型的情況下,需要更多的計(jì)算資源和時(shí)間。不適用于大規(guī)模數(shù)據(jù):全連接神經(jīng)網(wǎng)絡(luò)在處理大規(guī)模數(shù)據(jù)時(shí)可能面臨計(jì)算資源不足的問(wèn)題。因?yàn)閰?shù)量較大,需要大量的內(nèi)存和計(jì)算資源來(lái)進(jìn)行訓(xùn)練和推理。全連神經(jīng)網(wǎng)絡(luò)存在的問(wèn)題輸入層為100*100隱藏層為100*100那么這層就有100×100×100×100個(gè)參數(shù)以32位的浮點(diǎn)數(shù)進(jìn)行存儲(chǔ),就需要4×108的字節(jié)的存儲(chǔ)量,約等于400MB的參數(shù)量。全連神經(jīng)網(wǎng)絡(luò)存在的問(wèn)題卷積操作是一種數(shù)學(xué)運(yùn)算,是結(jié)合兩個(gè)函數(shù)生成第三個(gè)函數(shù)的數(shù)學(xué)運(yùn)算,卷積操作可以理解為是兩個(gè)變量在某范圍內(nèi)相乘后求和的結(jié)果。卷積操作可以應(yīng)用于圖像處理、信號(hào)處理等領(lǐng)域,用于特征提取、濾波等任務(wù)。卷積操作圖像可以表示為像素矩陣形式,卷積操作可以看作是確定一個(gè)卷積核,將這個(gè)卷積核在圖像像素矩陣中按照指定的步長(zhǎng)從左至右、從上到下移動(dòng),在移動(dòng)過(guò)程中,將卷積核的權(quán)重與其對(duì)應(yīng)的圖像矩陣區(qū)域的權(quán)重做乘積并加和,最終輸出一個(gè)值,卷積過(guò)程如圖所示:圖像卷積圖像的卷積運(yùn)算是使用各種卷積核對(duì)圖像處理中使用的一種運(yùn)算。在深度學(xué)習(xí)中卷積神經(jīng)網(wǎng)絡(luò)(CNN)通過(guò)卷積操作來(lái)提取輸入圖像的特征,并在此基礎(chǔ)上進(jìn)行分類、檢測(cè)等任務(wù)。圖像卷積圖像的卷積運(yùn)算是提取圖像的特征,這時(shí)需要使用到卷積核,它是一種可學(xué)習(xí)的濾波器,作用是提取輸入數(shù)據(jù)的局部特征。卷積核在卷積操作中,卷積核可以識(shí)別輸入圖像中的不同特征,例如邊緣、紋理、角落等,也可以提取更加高級(jí)的特征表示。卷積核的大小是卷積神經(jīng)網(wǎng)絡(luò)中的一個(gè)超參數(shù),通常與輸入數(shù)據(jù)的尺寸以及需要提取的特征的大小有關(guān)。Laplacian卷積核,用于檢測(cè)圖像中的邊緣和角點(diǎn),具有旋轉(zhuǎn)不變性和尺度不變性。常見(jiàn)的卷積核高斯卷積核:用于圖像平滑,減少圖像中的噪聲和細(xì)節(jié)信息,通常為奇數(shù)大小的卷積核。垂直邊緣檢測(cè)卷積核,用于檢測(cè)圖像中的垂直邊緣,通常為3x3大小的卷積核。卷積層(ConvolutionalLayer)是卷積神經(jīng)網(wǎng)絡(luò)(CNN)中的一種核心層級(jí),用于對(duì)輸入數(shù)據(jù)進(jìn)行特征提取。積層對(duì)輸入和卷積核權(quán)重進(jìn)行互相關(guān)運(yùn)算,并在添加標(biāo)量偏置之后產(chǎn)生輸出。卷積層中的兩個(gè)被訓(xùn)練的參數(shù)是卷積核權(quán)重和標(biāo)量偏置。在訓(xùn)練基于卷積層的模型時(shí),也隨機(jī)初始化卷積核權(quán)重。卷積層圖像:7*7*3的圖像,其中7*7是輸入(input)圖像的H*W,3表示圖像的RGB通道。兩個(gè)卷積和(filter)W0和W1,形狀(shape)為3*3*3,卷積核的第三個(gè)維度必須和圖像的通道數(shù)相同,卷積核還有偏執(zhí)值(bias),為了方便計(jì)算偏置值的形狀(shape)為(1*1*1)。卷積層的卷積運(yùn)算將卷積核按照步長(zhǎng)2進(jìn)行卷積運(yùn)算,圖形有個(gè)3個(gè)通道,分別與卷積核的w0通道1、通道2、通道2做內(nèi)積運(yùn)算,分別得到0,2,0將三個(gè)值與偏執(zhí)值相加得到3,這時(shí)值就是一個(gè)特征值,計(jì)算過(guò)程如圖所示。卷積層的卷積運(yùn)算卷積核橫向移動(dòng)2個(gè)像素點(diǎn),按照上述計(jì)算過(guò)程就得到第二個(gè)特征值-5,繼續(xù)計(jì)算得到卷積核1對(duì)圖像做卷積運(yùn)算的結(jié)果特征矩陣o1,接著使用卷積核2對(duì)圖像做卷積運(yùn)算得到特征矩陣o2,最終得到輸出的特征圖(FeatureMap)它的形狀是(3*3*2),如圖所示。卷積層的卷積運(yùn)算了解卷積的原理01掌握?qǐng)D像卷積的基本原理02了解了卷積核的作用03掌握卷積的計(jì)算方法04任務(wù)二:使用卷積神經(jīng)網(wǎng)絡(luò)完成貓狗識(shí)別任務(wù)知識(shí)——池化人工智能學(xué)院—特征圖01卷積層參數(shù)02池化03卷積神經(jīng)網(wǎng)絡(luò)04特征圖/01卷積運(yùn)算的輸出通常稱為特征圖每個(gè)特征圖反映了圖像中的特定模式或特征,如邊緣、紋理或其他復(fù)雜結(jié)構(gòu)階特征圖主要提取簡(jiǎn)單的圖像特征,如邊緣、角點(diǎn)、顏色梯度和紋理等高階特征圖提取復(fù)雜和抽象的特征,如物體的形狀、部分結(jié)構(gòu)和語(yǔ)義概念特征圖的大小和數(shù)量由卷積核的數(shù)量、大小、步幅、填充等參數(shù)決定特征圖特征圖特征圖的大小特征圖的維度,卷積運(yùn)算的輸出維度取決于輸入圖像的尺寸、卷積核的尺寸、步長(zhǎng)(stride)、以及填充(padding)的選擇。特征圖計(jì)算公式中H中是輸入圖像的高度,W是輸入圖像的寬度,F(xiàn)_H、F_W分別表示卷積核的高度、寬度,例如,H=5,W=5,pad=1,F(xiàn)_H=3,F(xiàn)_W=3。特征圖的深度,輸出的深度取決于卷積層中的卷積核的數(shù)量,上例中有2個(gè)卷積核,所示最終的特征圖shape為3*3*2。卷積層參數(shù)/02步長(zhǎng)(Stride):卷積核遍歷特征圖時(shí)每步移動(dòng)的像素,步長(zhǎng)越小,提取的特征會(huì)更精細(xì)。填充(Padding):處理特征圖邊界的方式,一種是“valid”,對(duì)邊界外完全不填充,只對(duì)輸入像素執(zhí)行卷積操作,這樣會(huì)使輸出特征圖像尺寸變得更小,且邊緣信息容易丟失;另一種是“same”,對(duì)邊界外進(jìn)行填充(一般填充為0),再執(zhí)行卷積操作,這樣可使輸出特征圖的尺寸與輸入特征圖的尺寸一致,邊緣信息也可以多次計(jì)算。卷積層參數(shù)卷積運(yùn)算參數(shù)非線性激活函數(shù):在卷積運(yùn)算之后會(huì)應(yīng)用一個(gè)非線性激活函數(shù),如ReLU函數(shù),以增加網(wǎng)絡(luò)的非線性和表達(dá)能力。通道(Channel):卷積層的通道數(shù)(層數(shù)),彩色圖像一般都是RGB三個(gè)通道(channel)。卷積核數(shù)目:主要還是根據(jù)實(shí)際情況調(diào)整,一般都是取2的整數(shù)次方,數(shù)目越多計(jì)算量越大,相應(yīng)模型擬合能力越強(qiáng)。卷積層參數(shù)卷積運(yùn)算參數(shù)卷積參數(shù)共享是卷積神經(jīng)網(wǎng)絡(luò)(CNN)中一種關(guān)鍵的特性。在卷積操作中,同一卷積核的權(quán)重在整個(gè)輸入圖像上是共享的。卷積參數(shù)共享帶來(lái)了以下幾個(gè)好處:減少參數(shù)數(shù)量,卷積核的權(quán)重在整個(gè)輸入圖像上共享,極大地減少了模型的參數(shù)數(shù)量,減少了過(guò)擬合的風(fēng)險(xiǎn);提高計(jì)算效率,這使得訓(xùn)練和推理的速度加快;參數(shù)共享帶來(lái)了對(duì)輸入數(shù)據(jù)的平移不變性;局部連接,有助于提取局部特征。卷積層參數(shù)卷積核參數(shù)共享池化/03池化層(Poolinglayer)是卷積神經(jīng)網(wǎng)絡(luò)(ConvolutionalNeuralNetwork,CNN)中常用的一種層類型,它的主要作用是通過(guò)對(duì)輸入數(shù)據(jù)進(jìn)行下采樣(subsampling)或匯聚(pooling),減少數(shù)據(jù)的空間維度,同時(shí)保留重要的特征。例如卷積得到224*224*64的特征圖,這時(shí)可以設(shè)定一個(gè)池化核,大小2*2同時(shí)已設(shè)定池化的步長(zhǎng)為2*2,經(jīng)過(guò)池化后征圖形狀變?yōu)?12*112*64。池化池化層池化窗口大小,指定池化操作的區(qū)域大小,例如(2,2)表示2x2的區(qū)域。步長(zhǎng):指定池化操作的步長(zhǎng)(stride),即在每次操作后,窗口移動(dòng)的距離,例如:步長(zhǎng)為(2,2)表示每次移動(dòng)2個(gè)單位。池化池化操作池化操作有兩種,最大池化(MaxPooling)在給定的池化窗口內(nèi)選擇最大值。這種操作有助于保留特征圖中的最顯著特征。平均池化(AveragePooling)在給定的池化窗口內(nèi)計(jì)算平均值,這種操作有助于平滑特征圖。池化池化操作類型在實(shí)際使用過(guò)程中最大池化(MaxPooling)的效果要好于均池化(AveragePooling)池化操作最直觀的效果就是特征圖的尺寸縮減,池化層會(huì)減小輸入數(shù)據(jù)的尺寸,從而減少了后續(xù)層需要處理的數(shù)據(jù)量。這有助于減少模型的計(jì)算成本和內(nèi)存占用;通過(guò)池化層的操作,模型對(duì)輸入數(shù)據(jù)的平移、縮放和旋轉(zhuǎn)等變化變得更加魯棒,因?yàn)槌鼗僮鲿?huì)將局部區(qū)域內(nèi)的特征進(jìn)行整合,這減少了對(duì)具體位置的依賴;池化層在一定程度上可以幫助減輕過(guò)擬合,因?yàn)樗档土四P偷膹?fù)雜度,減少了參數(shù)的數(shù)量。池化池化作用卷積神經(jīng)網(wǎng)絡(luò)/04CNN的主要層包括,輸入層、卷積層、池化層、全連接層輸出層等。輸入層通常是圖像數(shù)據(jù),它被表示為多通道特征圖。卷積層,提取輸入特征圖中的局部特征,卷積層包括多個(gè)濾波器,以生成新的特征圖。在卷積操作后,通常使用激活函數(shù),例如ReLU來(lái)引入非線性。池化層,通常在卷積層之后應(yīng)用池化層,以降低特征圖的空間維度,減少計(jì)算量,增加魯棒性。卷積層和池化層交替使用,以提取和聚合特征,這些層可以堆疊在一起,可以組成深層網(wǎng)絡(luò)。全連接層通常位于CNN的末尾,用于對(duì)高層次特征進(jìn)行分類,全連接層將特征圖展平為一維向量,并與輸出層連接。輸出層生成最終預(yù)測(cè)結(jié)果,例如在圖像分類任務(wù)中是類別概率。卷積神經(jīng)網(wǎng)絡(luò)例如貓狗識(shí)別中,輸出的是三通道的貓狗的圖片,使用了3個(gè)卷積+最大池化層,最終提取了6*6*128的特征圖。然后使用flatten函數(shù)將特征圖拉平,與512個(gè)神經(jīng)元進(jìn)行全連接,并使用relu作為激活函數(shù)。最終使用Sigmoid函數(shù)得到概率,根據(jù)概率就可以知道當(dāng)前圖片是貓還是狗了,模型結(jié)構(gòu)如圖所示卷積神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)CNN網(wǎng)絡(luò)時(shí)需要考慮卷積核的大小和數(shù)量,因?yàn)檫@些值決定了每一層能夠提取的特征的粒度。同時(shí)還要考慮池化層的池化窗口和步長(zhǎng),它決定了特征圖的降維程度。對(duì)于復(fù)雜的問(wèn)題還要考慮網(wǎng)絡(luò)深度,因?yàn)楦嗟木矸e層和池化層可以提取更高級(jí)的特征。最后還需要注意網(wǎng)絡(luò)的過(guò)擬合,需要使用正則化和dropout操作用于減少過(guò)擬合的風(fēng)險(xiǎn)。卷積神經(jīng)網(wǎng)絡(luò)特征圖是如何生成的,它的大小時(shí)及如何確定的01了解了卷積神經(jīng)網(wǎng)絡(luò)中卷積操作參數(shù)的作用02學(xué)習(xí)池化的基本原理03學(xué)習(xí)了如何搭建一個(gè)卷積神經(jīng)網(wǎng)絡(luò)04任務(wù)二:使用卷積神經(jīng)網(wǎng)絡(luò)完成貓狗識(shí)別工作任務(wù)——定義CNN網(wǎng)絡(luò)人工智能學(xué)院—1.任務(wù)導(dǎo)入任務(wù)總結(jié)任務(wù)二:使用卷積神經(jīng)網(wǎng)絡(luò)完成貓狗識(shí)別工作任務(wù)——讀取數(shù)據(jù)集

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論