深度學習技術基礎與實踐 課件 第5章-卷積神經網絡_第1頁
深度學習技術基礎與實踐 課件 第5章-卷積神經網絡_第2頁
深度學習技術基礎與實踐 課件 第5章-卷積神經網絡_第3頁
深度學習技術基礎與實踐 課件 第5章-卷積神經網絡_第4頁
深度學習技術基礎與實踐 課件 第5章-卷積神經網絡_第5頁
已閱讀5頁,還剩15頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

第5章卷積神經網絡授課教師:時

間:01概述卷積神經網絡概述重要概念與基本部件卷積神經網絡模型編程實戰(zhàn)卷積神經網絡概述—歷史溯源卷積神經網絡CNN是一類特殊的人工神經網絡特點:卷積運算操作應用:圖像分類、目標檢測、圖像語義分割、圖像檢索1959感受野神經認知19801987TDNNSIANN19881989LeNetNCR19931998LeNet-5OCR20032006深度學習AlexNet2012ResNet20152014VGGNet重要概念與基本組件—卷積定義:通過一個特定大小的矩陣與上層感受野區(qū)域矩陣做點積運算從而得到下層神經元的特征輸出,這個特定大小的矩陣叫做卷積核,也稱濾波器(convolutionkernel或convolutionfilter)

輸入矩陣與卷積核卷積操作示例重要概念與基本組件—感受野定義:CNN每一層輸出的特征圖(featuremap)上每個像素點在原始圖像上映射的區(qū)域大小。神經元之所以無法對原始圖像的所有信息進行感知,是因為在卷積神經網絡中普遍使用卷積層和池化層,層與層之間均為局部連接。特征圖上的一個點對應輸入圖上的區(qū)域重要概念與基本組件—池化定義:圖像某個領域內只需要一個像素點就能表達整個區(qū)域的信息,因此可以采用類似于圖像壓縮的思想,對圖像進行卷積之后,通過一個下采樣過程,來調整特征圖的大小。通過最大池化,完成特征圖壓縮,規(guī)模減少至4分之1重要概念與基本組件—激活函數神經網絡使用激活函數來加入非線性因素,以提高模型的表達能力。常見的激活函數有Sigmoid,Tanh,ReLU等

值域:(0,1)反向傳播中,容易就會出現(xiàn)梯度消失值域:(-1,1)減輕梯度消失問題值域:(0,

x)有助于隨機梯度下降收斂卷積神經網絡模型—LeNet典型卷積神經網絡由輸入層、卷積層、池化層、全連接層和輸出層堆疊構成。卷積神經網絡LeNet結構如下圖自編碼器自編碼器(AutoEncoder,AE),是一種利用反向傳播算法使得輸出值等于輸入值的神經網絡。如下圖所示,構建一個自編碼器需要兩部分:編碼器(Encoder)和解碼器(Decoder)。

自編碼器—特點數據相關性。自編碼器只能壓縮與自己此前訓練數據類似的數據,比如使用mnist訓練出來的自編碼器用來壓縮人臉圖片,效果較差,所以自編碼器需要處理相關聯(lián)的數據;數據有損性。自編碼器在解壓時得到的輸出與原始輸入相比,存在信息損失,所以自編碼器是一種數據有損的壓縮算法;自動學習性。自動編碼器是從數據樣本中自動學習的,這意味著很容易對指定類的輸入訓練出一種特定的編碼器,而不需要完成任何新工作。編程實戰(zhàn)通過以下三個任務,完成編程實戰(zhàn),鞏固前饋神經網絡的學習與理解。從頭開始訓練網絡模型。利用Keras或者PyTorch平臺從頭搭建網絡模型,使用少量樣本,完成貓狗圖像的分類任務;使用預訓練模型。預訓練模型在大型數據集上已完成訓練,編程實戰(zhàn)中在預訓練模型的基礎上,針對圖像分類問題進行微調,完成預測;構建基本卷積神經網絡進行圖像分類數據準備使用貓狗大戰(zhàn)過濾數據集,來源/birajsth/cats-and-dogs-filtered數據集包含了3000張貓和狗的彩色圖片圖像預處理:歸一化、調整大小構建基本卷積神經網絡進行圖像分類過擬合問題樣本量太少模型過于復雜訓練回合太多構建基本卷積神經網絡進行圖像分類數據增強和正則對圖像進行平移/旋轉/縮放等給模型增加Dropout正則化原模型添加Dropout基于預訓練模型進行遷移學習數據準備對CATS_VS_DOGS數據集進行圖像分類;數據集包含了60,000張貓和狗的彩色圖片;如圖中所示貓和狗兩種類別?;陬A訓練模型進行遷移學習準備預訓練模型預訓練的模型是之前在大型數據集上訓練過后保存的網絡;可以直接使用預先訓練的模型,也可以使用遷移學習將模型在給定的任務進行自定義。本實驗基于VGG16深度卷積神經網絡,以及在ImageNet上的預訓練權重?;陬A訓練模型進行遷移學習準備預訓練模型預訓練的模型是之前在大型數據集上訓練過后保存的網絡;可以直接使用預先訓練的模型,也可以使用遷移學習將模型在給定的任務進行自定義。本實驗基于VGG16深度卷積神經網絡,以及在ImageNet上的預訓練權重?;陬A訓練模型進行遷移學習預訓練模型當作特征提取器權重參數不變權重參數變化基于預訓練模型進行遷移學習基于預訓練模型進行微調權重參數微調編程實戰(zhàn)實驗總結要了解為什么要進行遷移學習;要熟悉遷移學習進行的最基本的方式;要掌握基于Ke

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論