淺談深度學(xué)習(xí)_第1頁
淺談深度學(xué)習(xí)_第2頁
淺談深度學(xué)習(xí)_第3頁
淺談深度學(xué)習(xí)_第4頁
淺談深度學(xué)習(xí)_第5頁
已閱讀5頁,還剩10頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)

文檔簡介

1、精選ppt1淺談深度學(xué)習(xí)(淺談深度學(xué)習(xí)(D Deepeep L Learningearning)1 制作者:劉紅敬 專 業(yè):計(jì)算機(jī)技術(shù) 精選ppt2主要內(nèi)容主要內(nèi)容 20062006年以來,機(jī)器學(xué)習(xí)領(lǐng)域中一個叫年以來,機(jī)器學(xué)習(xí)領(lǐng)域中一個叫“深度學(xué)習(xí)深度學(xué)習(xí)”的的課題開始受到學(xué)術(shù)界廣泛關(guān)注,如今擁有大數(shù)據(jù)的互聯(lián)網(wǎng)課題開始受到學(xué)術(shù)界廣泛關(guān)注,如今擁有大數(shù)據(jù)的互聯(lián)網(wǎng)公司爭相投入大量資源研發(fā)深度學(xué)習(xí)技術(shù)。公司爭相投入大量資源研發(fā)深度學(xué)習(xí)技術(shù)。 一一、機(jī)器學(xué)習(xí)機(jī)器學(xué)習(xí) 二、為什么有二、為什么有 D Deep learningeep learning?Why?Why? 三、三、什么是什么是 D Deep

2、learningeep learning?What?What? 四、四、怎么來的?怎么來的? 五、五、Deep learningDeep learning與神經(jīng)網(wǎng)絡(luò)的異同與神經(jīng)網(wǎng)絡(luò)的異同2精選ppt3一、機(jī)器學(xué)習(xí)一、機(jī)器學(xué)習(xí) 機(jī)器學(xué)習(xí)(機(jī)器學(xué)習(xí)(Machine LearningMachine Learning)是一門專門研究計(jì)算機(jī)怎是一門專門研究計(jì)算機(jī)怎樣模擬或?qū)崿F(xiàn)人類的學(xué)習(xí)行為,以獲取新的知識或技能,重新樣模擬或?qū)崿F(xiàn)人類的學(xué)習(xí)行為,以獲取新的知識或技能,重新組織已有的知識結(jié)構(gòu)使之不斷改善自身的性能的學(xué)科。組織已有的知識結(jié)構(gòu)使之不斷改善自身的性能的學(xué)科。 簡單的說,機(jī)器學(xué)習(xí)就是通過算法,使得機(jī)

3、器能從大量的簡單的說,機(jī)器學(xué)習(xí)就是通過算法,使得機(jī)器能從大量的歷史數(shù)據(jù)中學(xué)習(xí)規(guī)律,從而對新的樣本做智能識別或預(yù)測未來。歷史數(shù)據(jù)中學(xué)習(xí)規(guī)律,從而對新的樣本做智能識別或預(yù)測未來。 19591959年美國的年美國的塞繆爾塞繆爾(Samuel)(Samuel)設(shè)計(jì)了一個下棋程序,這個設(shè)計(jì)了一個下棋程序,這個程序具有學(xué)習(xí)能力,它可以在不斷的對弈中改善自己的棋藝。程序具有學(xué)習(xí)能力,它可以在不斷的對弈中改善自己的棋藝。4 4年后,這個程序戰(zhàn)勝了設(shè)計(jì)者本人。又過了年后,這個程序戰(zhàn)勝了設(shè)計(jì)者本人。又過了3 3年,這個程序戰(zhàn)勝年,這個程序戰(zhàn)勝了美國一個保持了美國一個保持8 8年之久的常勝不敗的冠軍。這個程序向人們

4、展年之久的常勝不敗的冠軍。這個程序向人們展示了示了機(jī)器學(xué)習(xí)的能力,機(jī)器學(xué)習(xí)的能力,提出了許多令人深思的社會問題與哲學(xué)提出了許多令人深思的社會問題與哲學(xué)問題。問題。 這種程序水平達(dá)到一定程度很容易,但再進(jìn)一步就不容易了。這種程序水平達(dá)到一定程度很容易,但再進(jìn)一步就不容易了。深藍(lán)深藍(lán)是是9090年代機(jī)器學(xué)習(xí)理論有了突破之后才出來的年代機(jī)器學(xué)習(xí)理論有了突破之后才出來的。3精選ppt4二、二、Why?Why? 機(jī)器學(xué)習(xí)雖然發(fā)展了幾十年,但還是存在很多沒有良好解決的機(jī)器學(xué)習(xí)雖然發(fā)展了幾十年,但還是存在很多沒有良好解決的問題。例如以問題。例如以視覺感知視覺感知為例,通過為例,通過機(jī)器學(xué)習(xí)機(jī)器學(xué)習(xí)去解決這些

5、問題的去解決這些問題的思路:思路: Input Input Feature RepresentationFeature Representation Learning Learning Algorithm Algorithm 手工選取特征不太好,那么能不能自動地學(xué)習(xí)一些特征呢?手工選取特征不太好,那么能不能自動地學(xué)習(xí)一些特征呢?答案是能!答案是能!Deep LearningDeep Learning就是用來干這個事情的,它有一個別就是用來干這個事情的,它有一個別名名Unsupervised Feature LearningUnsupervised Feature Learning。WhyWhy

6、?答案:讓機(jī)器自動學(xué)習(xí)良好的特征,而免去人工選取過程。答案:讓機(jī)器自動學(xué)習(xí)良好的特征,而免去人工選取過程。4精選ppt5三、三、WhatWhat? 深度學(xué)習(xí)深度學(xué)習(xí)是機(jī)器學(xué)習(xí)研究中的一個新的領(lǐng)域,其是機(jī)器學(xué)習(xí)研究中的一個新的領(lǐng)域,其動機(jī)在于建立、模擬人腦進(jìn)行分析學(xué)習(xí)的神經(jīng)網(wǎng)絡(luò),它模仿動機(jī)在于建立、模擬人腦進(jìn)行分析學(xué)習(xí)的神經(jīng)網(wǎng)絡(luò),它模仿人腦的機(jī)制來解釋數(shù)據(jù),例如圖像,聲音和文本。人腦的機(jī)制來解釋數(shù)據(jù),例如圖像,聲音和文本。 深度學(xué)習(xí)是無監(jiān)督學(xué)習(xí)的一種。深度學(xué)習(xí)是無監(jiān)督學(xué)習(xí)的一種。 深度學(xué)習(xí)的概念深度學(xué)習(xí)的概念源于源于人工神經(jīng)網(wǎng)絡(luò)的研究。含多隱層的人工神經(jīng)網(wǎng)絡(luò)的研究。含多隱層的多層感知器就是一種深

7、度學(xué)習(xí)結(jié)構(gòu)。深度學(xué)習(xí)通過組合低層多層感知器就是一種深度學(xué)習(xí)結(jié)構(gòu)。深度學(xué)習(xí)通過組合低層特征形成更加抽象的高層表示屬性類別或特征,以發(fā)現(xiàn)數(shù)據(jù)特征形成更加抽象的高層表示屬性類別或特征,以發(fā)現(xiàn)數(shù)據(jù)的分布式特征表示。的分布式特征表示。5精選ppt6四、怎么來的?四、怎么來的?從機(jī)器學(xué)習(xí)的模型結(jié)構(gòu)層次來分,機(jī)器學(xué)習(xí)經(jīng)歷了兩次浪潮:從機(jī)器學(xué)習(xí)的模型結(jié)構(gòu)層次來分,機(jī)器學(xué)習(xí)經(jīng)歷了兩次浪潮:1 1、淺層學(xué)習(xí)(、淺層學(xué)習(xí)(Shallow LearningShallow Learning):機(jī)器學(xué)習(xí)第一次浪潮):機(jī)器學(xué)習(xí)第一次浪潮2 2、深度學(xué)習(xí)(、深度學(xué)習(xí)(Deep LearningDeep Learning):機(jī)

8、器學(xué)習(xí)第二次浪潮):機(jī)器學(xué)習(xí)第二次浪潮6精選ppt7 1 1、淺層學(xué)習(xí)、淺層學(xué)習(xí) 2020世紀(jì)世紀(jì)8080年代末期年代末期,由于,由于人工神經(jīng)網(wǎng)絡(luò)人工神經(jīng)網(wǎng)絡(luò)的的反向傳播算反向傳播算法法(BPBP算法算法)的發(fā)明,給機(jī)器學(xué)習(xí)帶來了希望,掀起了)的發(fā)明,給機(jī)器學(xué)習(xí)帶來了希望,掀起了基基于統(tǒng)計(jì)模型的機(jī)器學(xué)習(xí)于統(tǒng)計(jì)模型的機(jī)器學(xué)習(xí)熱潮。這個熱潮一直持續(xù)到今天。熱潮。這個熱潮一直持續(xù)到今天。 基于統(tǒng)計(jì)的機(jī)器學(xué)習(xí)方法可以讓一個人工神經(jīng)網(wǎng)絡(luò)模基于統(tǒng)計(jì)的機(jī)器學(xué)習(xí)方法可以讓一個人工神經(jīng)網(wǎng)絡(luò)模型從大量訓(xùn)練樣本中學(xué)習(xí)統(tǒng)計(jì)規(guī)律,從而對未知事件做預(yù)型從大量訓(xùn)練樣本中學(xué)習(xí)統(tǒng)計(jì)規(guī)律,從而對未知事件做預(yù)測。測。 這個時候的人

9、工神經(jīng)網(wǎng)絡(luò),雖也被稱作這個時候的人工神經(jīng)網(wǎng)絡(luò),雖也被稱作多層感知機(jī)多層感知機(jī)(Multi-layer PerceptronMulti-layer Perceptron),但實(shí)際是一種只含有),但實(shí)際是一種只含有一層一層隱層節(jié)點(diǎn)的淺層模型隱層節(jié)點(diǎn)的淺層模型。7精選ppt81 1、淺層學(xué)習(xí)、淺層學(xué)習(xí) 2020世紀(jì)世紀(jì)9090年代年代,各種各樣的淺層機(jī)器學(xué)習(xí)模型相繼被,各種各樣的淺層機(jī)器學(xué)習(xí)模型相繼被提出,例如提出,例如支撐向量機(jī)支撐向量機(jī)(SVMSVM)、)、 BoostingBoosting、最大熵方法最大熵方法(LRLR)等。)等。 這些模型的結(jié)構(gòu)基本上可以看成帶有這些模型的結(jié)構(gòu)基本上可以看成

10、帶有一層隱層節(jié)點(diǎn)一層隱層節(jié)點(diǎn)(如(如SVMSVM、BoostingBoosting),或),或沒有隱層節(jié)點(diǎn)沒有隱層節(jié)點(diǎn)(如(如LRLR)。這些)。這些模型無論是在理論分析還是應(yīng)用中都獲得了巨大的成功。模型無論是在理論分析還是應(yīng)用中都獲得了巨大的成功。 相比之下,由于理論分析的難度大,訓(xùn)練方法又需要相比之下,由于理論分析的難度大,訓(xùn)練方法又需要很多經(jīng)驗(yàn)和技巧,這個時期深度人工神經(jīng)網(wǎng)絡(luò)反而相對沉很多經(jīng)驗(yàn)和技巧,這個時期深度人工神經(jīng)網(wǎng)絡(luò)反而相對沉寂。寂。8精選ppt92 2、深度學(xué)習(xí)、深度學(xué)習(xí) 20062006年,加拿大多倫多大學(xué)教授、機(jī)器學(xué)習(xí)領(lǐng)域的泰斗年,加拿大多倫多大學(xué)教授、機(jī)器學(xué)習(xí)領(lǐng)域的泰斗G

11、eoffrey HintonGeoffrey Hinton等在等在ScienceScience上發(fā)表了一篇文章上發(fā)表了一篇文章11,開啟了深度學(xué)習(xí)在學(xué)術(shù)界和工業(yè)界的浪潮。開啟了深度學(xué)習(xí)在學(xué)術(shù)界和工業(yè)界的浪潮。這篇文章有兩個主要觀點(diǎn):這篇文章有兩個主要觀點(diǎn):1 1)多隱層多隱層的人工神經(jīng)網(wǎng)絡(luò)具有優(yōu)異的特征學(xué)習(xí)能力,學(xué)習(xí)的人工神經(jīng)網(wǎng)絡(luò)具有優(yōu)異的特征學(xué)習(xí)能力,學(xué)習(xí)得到的特征對數(shù)據(jù)有更本質(zhì)的刻畫,從而有利于可視化或得到的特征對數(shù)據(jù)有更本質(zhì)的刻畫,從而有利于可視化或分類分類。2 2)深度神經(jīng)網(wǎng)絡(luò)在訓(xùn)練上的難度,可以通過)深度神經(jīng)網(wǎng)絡(luò)在訓(xùn)練上的難度,可以通過“逐層初始化逐層初始化”來有效克服,在這篇文章中

12、,逐層初始化是通過無監(jiān)督學(xué)來有效克服,在這篇文章中,逐層初始化是通過無監(jiān)督學(xué)習(xí)實(shí)現(xiàn)的。習(xí)實(shí)現(xiàn)的。11 Hinton, Geoffrey;Osindero, Simon;Welling, Max;Teh, Yee-Whye . Unsupervised Discovery of Nonlinear Structure Using Contrastive Backpropagation. Science.2006(30)4: 725-732. 9精選ppt10 當(dāng)前多數(shù)當(dāng)前多數(shù)分類、回歸分類、回歸等學(xué)習(xí)方法為等學(xué)習(xí)方法為淺層結(jié)構(gòu)算淺層結(jié)構(gòu)算法法,其局限性在于有限樣本和計(jì)算單元情況下對復(fù)雜函數(shù),其局

13、限性在于有限樣本和計(jì)算單元情況下對復(fù)雜函數(shù)的表示能力有限,針對復(fù)雜分類問題其泛化能力受到一定的表示能力有限,針對復(fù)雜分類問題其泛化能力受到一定制約。制約。 深度學(xué)習(xí)深度學(xué)習(xí)可通過學(xué)習(xí)一種可通過學(xué)習(xí)一種深層非線性網(wǎng)絡(luò)結(jié)深層非線性網(wǎng)絡(luò)結(jié)構(gòu)構(gòu),實(shí)現(xiàn)復(fù)雜函數(shù)逼近,表征輸入數(shù)據(jù)分布式表示,并展,實(shí)現(xiàn)復(fù)雜函數(shù)逼近,表征輸入數(shù)據(jù)分布式表示,并展現(xiàn)了強(qiáng)大的從少數(shù)樣本中集中學(xué)習(xí)數(shù)據(jù)集本質(zhì)特征的能力?,F(xiàn)了強(qiáng)大的從少數(shù)樣本中集中學(xué)習(xí)數(shù)據(jù)集本質(zhì)特征的能力。(多層的好處是可以用較少的參數(shù)表示復(fù)雜的函數(shù))(多層的好處是可以用較少的參數(shù)表示復(fù)雜的函數(shù))102 2、深度學(xué)習(xí)、深度學(xué)習(xí)精選ppt11 深度學(xué)習(xí)深度學(xué)習(xí)的實(shí)質(zhì),是

14、通過構(gòu)建具有的實(shí)質(zhì),是通過構(gòu)建具有很多隱層很多隱層的機(jī)器學(xué)的機(jī)器學(xué)習(xí)模型和海量的訓(xùn)練數(shù)據(jù),來學(xué)習(xí)更有用的特征,從而最習(xí)模型和海量的訓(xùn)練數(shù)據(jù),來學(xué)習(xí)更有用的特征,從而最終提升分類或預(yù)測的準(zhǔn)確性。因此,終提升分類或預(yù)測的準(zhǔn)確性。因此,“深度模型深度模型”是手段,是手段,“特征學(xué)習(xí)特征學(xué)習(xí)”是目的。是目的。 區(qū)別于傳統(tǒng)的淺層學(xué)習(xí),深度學(xué)習(xí)的不同在于:區(qū)別于傳統(tǒng)的淺層學(xué)習(xí),深度學(xué)習(xí)的不同在于: 1 1)強(qiáng)調(diào)了)強(qiáng)調(diào)了模型結(jié)構(gòu)的深度模型結(jié)構(gòu)的深度,通常有,通常有5 5層、層、6 6層,甚至層,甚至1010多層多層的隱層節(jié)點(diǎn);的隱層節(jié)點(diǎn); 2 2)明確突出了)明確突出了特征學(xué)習(xí)的重要性特征學(xué)習(xí)的重要性,也

15、就是說,通過逐層特,也就是說,通過逐層特征變換,將樣本在原空間的特征表示變換到一個新特征空征變換,將樣本在原空間的特征表示變換到一個新特征空間,從而使分類或預(yù)測更加容易。利用大數(shù)據(jù)來學(xué)習(xí)特征,間,從而使分類或預(yù)測更加容易。利用大數(shù)據(jù)來學(xué)習(xí)特征,更能夠刻畫數(shù)據(jù)的豐富內(nèi)在信息。更能夠刻畫數(shù)據(jù)的豐富內(nèi)在信息。113 3、淺層學(xué)習(xí)與深度學(xué)習(xí)的不同、淺層學(xué)習(xí)與深度學(xué)習(xí)的不同精選ppt12四、深度學(xué)習(xí)與神經(jīng)網(wǎng)絡(luò)的異同四、深度學(xué)習(xí)與神經(jīng)網(wǎng)絡(luò)的異同 深度學(xué)習(xí)深度學(xué)習(xí)與與傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)之間有相同的地方也有很之間有相同的地方也有很多不同。多不同。 相同點(diǎn)相同點(diǎn):深度學(xué)習(xí)深度學(xué)習(xí)采用了神經(jīng)網(wǎng)絡(luò)相似的分

16、層結(jié)構(gòu),系采用了神經(jīng)網(wǎng)絡(luò)相似的分層結(jié)構(gòu),系統(tǒng)由包括統(tǒng)由包括輸入層、隱層(多層)、輸出層輸入層、隱層(多層)、輸出層組成的多層網(wǎng)絡(luò),組成的多層網(wǎng)絡(luò),只有相鄰層節(jié)點(diǎn)之間有連接,同一層以及跨層節(jié)點(diǎn)之間相只有相鄰層節(jié)點(diǎn)之間有連接,同一層以及跨層節(jié)點(diǎn)之間相互無連接,每一層可以看作是一個邏輯回歸模型;這種分互無連接,每一層可以看作是一個邏輯回歸模型;這種分層結(jié)構(gòu),是比較接近人類大腦的結(jié)構(gòu)的。層結(jié)構(gòu),是比較接近人類大腦的結(jié)構(gòu)的。12精選ppt13 不同點(diǎn)不同點(diǎn):采用了:采用了不同的訓(xùn)練機(jī)制不同的訓(xùn)練機(jī)制。 傳統(tǒng)神經(jīng)網(wǎng)絡(luò)傳統(tǒng)神經(jīng)網(wǎng)絡(luò)中,采用的是反向傳播(中,采用的是反向傳播(BPBP)的方式進(jìn))的方式進(jìn)行。即

17、采用迭代的算法來訓(xùn)練整個網(wǎng)絡(luò),隨機(jī)設(shè)定初值,行。即采用迭代的算法來訓(xùn)練整個網(wǎng)絡(luò),隨機(jī)設(shè)定初值,計(jì)算當(dāng)前網(wǎng)絡(luò)的輸出,然后根據(jù)當(dāng)前計(jì)算當(dāng)前網(wǎng)絡(luò)的輸出,然后根據(jù)當(dāng)前計(jì)算的輸出值計(jì)算的輸出值和和實(shí)際實(shí)際的標(biāo)記值的標(biāo)記值之間的差去改變前面各層的參數(shù),直到收斂(整之間的差去改變前面各層的參數(shù),直到收斂(整體是一個梯度下降法)。體是一個梯度下降法)。 BP BP算法不適合深度神經(jīng)網(wǎng)絡(luò):算法不適合深度神經(jīng)網(wǎng)絡(luò):如果對所有層同時訓(xùn)練,如果對所有層同時訓(xùn)練,時間復(fù)雜度會太高;如果每次訓(xùn)練一層,偏差就會逐層傳時間復(fù)雜度會太高;如果每次訓(xùn)練一層,偏差就會逐層傳遞,出現(xiàn)過擬合遞,出現(xiàn)過擬合。 深度學(xué)習(xí)深度學(xué)習(xí)整體上是一個逐層整體上是一個逐層的訓(xùn)練機(jī)制。的訓(xùn)練機(jī)制。13精選ppt14深度學(xué)習(xí)的訓(xùn)練過程深度學(xué)習(xí)的訓(xùn)練過程1 1)自下而上的非監(jiān)督學(xué)習(xí)自

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論