深度學習與卷積神經(jīng)網(wǎng)絡(luò)基礎(chǔ)理論與實例分析課件_第1頁
深度學習與卷積神經(jīng)網(wǎng)絡(luò)基礎(chǔ)理論與實例分析課件_第2頁
深度學習與卷積神經(jīng)網(wǎng)絡(luò)基礎(chǔ)理論與實例分析課件_第3頁
深度學習與卷積神經(jīng)網(wǎng)絡(luò)基礎(chǔ)理論與實例分析課件_第4頁
深度學習與卷積神經(jīng)網(wǎng)絡(luò)基礎(chǔ)理論與實例分析課件_第5頁
已閱讀5頁,還剩34頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

1、(最新整理)深度學習與卷積神經(jīng)網(wǎng)絡(luò)基礎(chǔ)理論與實例分析2021/7/261目 錄010203概述與背景人腦視覺機理與特征表示卷積神經(jīng)網(wǎng)絡(luò)04TensorFlow的相關(guān)介紹2021/7/2621.概述與背景1.1 人工智能、機器學習、深度學習、數(shù)據(jù)挖掘之間的關(guān)系人工智能機器學習深度學習數(shù)據(jù)挖掘2021/7/2631.概述與背景1.2 神經(jīng)網(wǎng)絡(luò)興衰史第一次興起(1958年):感知機,由于沒有引入非線性,不能求解異或問題。第二次興起(1986年):將BP(Back Propagation)神經(jīng)網(wǎng)絡(luò)的提出。第三次興起(2012年):深度學習的興起,一直到現(xiàn)在。發(fā)展基礎(chǔ):數(shù)據(jù)爆炸:圖像數(shù)據(jù)、文本數(shù)據(jù)、語音

2、數(shù)據(jù)、社交網(wǎng)絡(luò)數(shù)據(jù)、科學計算等計算性能大幅提高2021/7/264目 錄020103人腦視覺機理與特征表示概述與背景卷積神經(jīng)網(wǎng)絡(luò)04TensorFlow的相關(guān)介紹2021/7/2652.人腦視覺機理與特征表示2.1 人腦視覺機理-大腦神經(jīng)元的信號傳輸神經(jīng)元樹突輸入神經(jīng)元接收信號隱含層輸入神經(jīng)元激活軸突發(fā)出信號隱含層輸出人工神經(jīng)網(wǎng)絡(luò)大腦神經(jīng)元信號傳輸?shù)哪M2021/7/2662.人腦視覺機理與特征表示2.1 人腦視覺機理-大腦識別物體過程從原始信號攝入開始(瞳孔攝入像素 Pixels);接著做初步處理(大腦皮層某些細胞發(fā)現(xiàn)邊緣和方向);然后抽象(大腦判定,眼前的物體的形狀);然后進一步抽象(大腦

3、進一步判定該物體)。Low-level sensingPreprocessingFeatureextractionFeatureselectionInference:prediction,recognition2021/7/2672.人腦視覺機理與特征表示2.2 特征表示手工地選取特征是一件非常費力、啟發(fā)式(需要專業(yè)知識)的方法,而且它的調(diào)節(jié)需要大量的時間。既然手工選取特征不太好,那么能不能自動地學習一些特征?學習出特征能否很好的表征目標?2021/7/2682.人腦視覺機理與特征表示2.2 特征表示在不同對象上做訓練時,所得的邊緣基底 是非常相似的,但對象部分和模型 就會完全不同了。初級(淺

4、層)特征表示結(jié)構(gòu)性特征抽象層面越高,存在的可能猜測就越少,就越利于分類特征表示也可以分層2021/7/2692.人腦視覺機理與特征表示 神經(jīng)元的模型 分層處理信息 特征的分層表達2021/7/2610訓練: during the training phase, a neural network is fed thousands of labeled images of various animals, learning to classify them 輸入: An unlabeled image is shown to the pre-trained networkFirst Layer:

5、the neurons respond to different simple shapes, like edgesHigh Layer: the neurons respond to more complex structuresTop Layer: the neurons respond to highly complex, abstract concepts that we would identify as different animals輸出: The network predicts what the object most likely is, based on its tra

6、ining2021/7/26112.人腦視覺機理與特征表示2.3淺層學習和深度學習深度學習的實質(zhì),是通過構(gòu)建具有很多隱層的機器學習模型和海量的訓練數(shù)據(jù),來學習更有用的特征,從而最終提升分類或預測的準確性。因此,“深度模型”是手段,“特征學習”是目的。區(qū)別于傳統(tǒng)的淺層學習,深度學習的不同在于:1)強調(diào)了模型結(jié)構(gòu)的深度,通常有5層、6層,甚至幾十層的隱層節(jié)點;2)明確突出了特征學習的重要性,也就是說,通過逐層特征變換,將樣本在原空間的特征表示變換到一個新特征空間,從而使分類或預測更加容易。這種分層結(jié)構(gòu),是比較接近人類大腦的結(jié)構(gòu)的。與人工規(guī)則構(gòu)造特征的方法相比,利用大數(shù)據(jù)來學習特征,更能夠刻畫數(shù)據(jù)的

7、豐富內(nèi)在信息。2021/7/2612目 錄030201概述與背景人腦視覺機理與特征表示卷積神經(jīng)網(wǎng)絡(luò)04TensorFlow的相關(guān)介紹2021/7/26133.卷積神經(jīng)網(wǎng)絡(luò)-CNNLeCun1998年,LeCun提出LeNet,并成功應用于美國手寫數(shù)字識別。測試誤差小于1%。麻雀雖小,但五臟俱全,卷積層、pooling層、全連接層,這些都是現(xiàn)代CNN網(wǎng)絡(luò)的基本組件。卷積層-convolution池化層-pooling全連接層fully connected3.1 初探-LeNet框架2021/7/26143.卷積神經(jīng)網(wǎng)絡(luò)-CNN3.1 初探-完整的CNN把圖片分入四個類別:狗,貓,船,鳥當獲得一張

8、船圖作為輸入的時候,網(wǎng)絡(luò)正確的給船的分類賦予了最高的概率(0.94)。輸出層的各個概率相加應為1.卷積神經(jīng)網(wǎng)絡(luò)主要執(zhí)行了四個操作:卷積非線性(ReLU)池化或下采樣分類(全連接層)2021/7/26153.卷積神經(jīng)網(wǎng)絡(luò)-CNNCNN的應用也很廣泛,其中包括圖像分類,目標檢測,目標識別,目標跟蹤,文本檢測和識別以及位置估計等。3.1 初探-CNN結(jié)構(gòu)演變2021/7/26163.卷積神經(jīng)網(wǎng)絡(luò)-CNN如上圖是LeNet-5,它的第一個卷積層含有6的feature map,每一個feature map對應一個卷積核,也就對應提取了圖像的一種特征。這里注意最終的feature map并不是做完卷積后的

9、結(jié)果,然后還要加一個非線性激活的操作,一般用ReLU函數(shù),這個過程一般叫做detector stage。3.2 基本單元-卷積層2021/7/26173.卷積神經(jīng)網(wǎng)絡(luò)-CNN3.2 基本單元-卷積層深度(Depth) 深度就是卷積操作中用到的濾波器個數(shù)。這里對圖片用了兩個不同的濾波器,從而產(chǎn)生了兩個特征映射。你可以認為這兩個特征映射也是堆疊的2d矩陣,所以這里特征映射的“深度”就是2。步幅(Stride)步幅是每次滑過的像素數(shù)。當Stride=2的時候每次就會滑過2個像素。步幅越大,特征映射越小。補零(Zero-padding)邊緣補零,對圖像矩陣的邊緣像素也施加濾波器。補零的好處是讓我們可以

10、控制特征映射的尺寸。補零也叫寬卷積,不補零就叫窄卷積。2021/7/26183.卷積神經(jīng)網(wǎng)絡(luò)-CNN3.2 基本單元-非線性(激勵層)Sigmoid梯度消失問題激活函數(shù)一般用于卷積層和全連接層之后激活函數(shù)是深度網(wǎng)絡(luò)非線性的主要來源ReLU解決梯度消失問題收斂速度非常快神經(jīng)元死亡問題2021/7/26193.卷積神經(jīng)網(wǎng)絡(luò)-CNN3.2 基本單元-池化層空間池化,也叫亞采樣或下采樣降低了每個特征映射的維度,但是保留了最重要的信息。空間池化可以有很多種形式:最大(Max),平均(Average),求和(Sum)等等。最大池化成效最好。池化層的功能減少網(wǎng)絡(luò)中的參數(shù)計算數(shù)量,從而遏制過擬合增強網(wǎng)絡(luò)對輸入

11、圖像中的小變形、扭曲、平移的魯棒性(輸入里的微小扭曲不會改變池化輸出因為我們在局部鄰域已經(jīng)取了最大值/平均值)。幫助我們獲得不因尺寸而改變的等效圖片表征。這非常有用,因為這樣我們就可以探測到圖片里的物體,不論那個物體在哪。2021/7/26203.卷積神經(jīng)網(wǎng)絡(luò)-CNN3.2 基本單元-全連接層使用softmax激勵函數(shù)作為輸出層。全連接表示上一層的每一個神經(jīng)元,都和下一層的每一個神經(jīng)元是相互連接的。卷積層和池化層的輸出代表了輸入圖像的高級特征,全連接層的目的就是利用這些特征進行分類。2021/7/26213.卷積神經(jīng)網(wǎng)絡(luò)-CNN3.3 前向傳播與反向傳播卷積+池化 = 特征提取器全連接層= 分

12、類器前向傳播反向傳播2021/7/26223.卷積神經(jīng)網(wǎng)絡(luò)-CNN3.3 前向傳播與反向傳播幾個人站成一排,第一個人看一幅畫(輸入數(shù)據(jù)),描述給第二個人(隱層)依此類推,到最后一個人(輸出)的時候,畫出來的畫肯定不能看了(誤差較大)。反向傳播就是,把畫拿給最后一個人看(求取誤差),然后最后一個人就會告訴前面的人下次描述時需要注意哪里(權(quán)值修正)。梯度下降法。2021/7/26233.卷積神經(jīng)網(wǎng)絡(luò)-CNN3.4 反向傳播訓練Step 1: 用隨機數(shù)初始化所有的濾波器和參數(shù)/權(quán)重Step 2: 網(wǎng)絡(luò)將訓練圖片作為輸入,執(zhí)行前向步驟(卷積,ReLU,池化以及全連接層的前向傳播)并計算每個類別的對應輸

13、出概率。假設(shè)船圖的輸出概率是0.2, 0.4, 0.1, 0.3因為第一個訓練樣本的權(quán)重都是隨機的,所以這個輸出概率也跟隨機的差不多Step 3: 計算輸出層的總誤差總誤差=1/2 (目標概率輸出概率)2Step 4: 反向傳播算法計算誤差相對于所有權(quán)重的梯度,并用梯度下降法更新所有的濾波器/權(quán)重和參數(shù)的值,以使輸出誤差最小化。 其中wj是要更新的權(quán)重,稱為學習率,Etotal是總的誤差權(quán)重的調(diào)整程度與其對總誤差的貢獻成正比。如濾波器個數(shù)、濾波器尺寸、網(wǎng)絡(luò)架構(gòu)這些參數(shù),是在Step 1之前就已經(jīng)固定的,且不會在訓練過程中改變只有濾波矩陣和神經(jīng)元權(quán)重會更新。2021/7/2624目 錄04020

14、3概述與背景人腦視覺機理與特征表示卷積神經(jīng)網(wǎng)絡(luò)01TensorFlow的相關(guān)介紹2021/7/26254.TensorFlow的相關(guān)介紹4.1 深度學習框架TensorFlow具有最高的關(guān)注度和評分。Caffe在目標識別和目標分割領(lǐng)域應用最廣主流框架基本都支持Python2021/7/26264.TensorFlow的相關(guān)介紹4.1 深度學習框架庫名學習材料豐富程度CNN建模能力RNN建模能力易用程度運行速度多GPU支持程度TensorFlowCaffeCNTKMXNetTorchTheanoNeon2021/7/26274.TensorFlow的相關(guān)介紹4.2 TensorFlow的安裝st

15、ep1. 系統(tǒng)要求: Linux(Ubuntu 14.04/16.04),Windows;step2. GPU驅(qū)動:在Linux系統(tǒng)最容易出現(xiàn)問題的地方;step3. CUDA:NVIDIA推出的通用并行計算架構(gòu)(cuDNN);step4. 安裝Python、依賴庫和TensorFlow: sudo pip install tensorflow-gpu。2021/7/26284.TensorFlow的相關(guān)介紹4.3 TensorFlow基礎(chǔ)TensorFlow的特點: 將計算流程表示成圖; 通過Sessions來執(zhí)行圖計算; 將數(shù)據(jù)表示為tensors; 分別使用feeds和fetches來填

16、充數(shù)據(jù)和抓取任意的操作結(jié)果; 2021/7/26294.TensorFlow的相關(guān)介紹數(shù)據(jù)流圖是描述有向圖中的數(shù)值計算過程。有向圖中的節(jié)點通常代表數(shù)學運算,但也可以表示數(shù)據(jù)的輸入、輸出和讀寫等操作;有向圖中的邊表示節(jié)點之間的某種聯(lián)系,它負責傳輸多維數(shù)據(jù)(Tensors)。圖中這些tensors的flow也就是TensorFlow的命名來源。一個Tensor是一個多維數(shù)組,例如,你可以將一批圖像表示為一個四維的數(shù)組batch, height, width, channels,數(shù)組中的值均為浮點數(shù)。 (第一維列,第二維行) 4.3 TensorFlow基礎(chǔ)-數(shù)據(jù)流圖例如:計算a=(b+c)(c+2

17、),我們可以將算式拆分成一下:d和e是不相關(guān)的,也就是可以并行計算。2021/7/26304.TensorFlow的相關(guān)介紹4.4 TensorFlow的基礎(chǔ)語法1. 定義數(shù)據(jù):2. 定義運算(也稱TensorFlow operation):Tensorflow可以自動進行數(shù)據(jù)類型檢測,比如:賦值2.0就默認為tf.float323. 定義初始化operation用Tensorflow計算a=(b+c)(c+2)2021/7/26314.TensorFlow的相關(guān)介紹用Tensorflow計算a=(b+c)(c+2)4.4 TensorFlow的基礎(chǔ)語法4. 執(zhí)行圖5. 站位符(placeho

18、lder)對上面例子的改進:使變量b可以接收任意值。TensorFlow中接收值的方式為占位符(placeholder),通過tf.placeholder()創(chuàng)建。需要在運行過程中feed占位符b的值,具體為將a_out = sess.run(a)改為:2021/7/26324.TensorFlow的相關(guān)介紹4.5 TensorFlow-mnist識別實例模型圖當使用tensorflow進行數(shù)據(jù)流圖構(gòu)建時,大致可以分為以下幾個部分: 1、加載數(shù)據(jù) 2、為 輸入X與 輸出y 定義placeholder;3、定義權(quán)重W;4、定義模型結(jié)構(gòu);5、定義損失函數(shù);6、定義優(yōu)化算法。2021/7/26334.TensorFlow的相關(guān)介紹4.5 TensorFlow-mnist識別實例1、 加載數(shù)據(jù)one_hot=True表示對label進行one-hot編碼,比如標簽4可以表示為0, 0, 0, 0, 1, 0, 0, 0, 0, 0。這是神經(jīng)網(wǎng)絡(luò)輸出層要求的格式。2、定義參數(shù)和placeholderNone, 784中的None表示任意值,特別對應tensor數(shù)目2021/7/26344.TensorFlow的相關(guān)介紹4.5 TensorF

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論