深度學習綜述_第1頁
深度學習綜述_第2頁
深度學習綜述_第3頁
深度學習綜述_第4頁
深度學習綜述_第5頁
已閱讀5頁,還剩6頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

目錄1深度學習的觀點........................................................................................................01。1卷積神經(jīng)網(wǎng)絡模型.......................................................................................11.2深度相信網(wǎng)絡模型.........................................................................................21.3貨倉自編碼網(wǎng)絡模型......................................................................................32深度學習算法............................................................................................................42。1深度費希爾映照方法....................................................................................42。2非線性變換方法...........................................................................................42。3稀少編碼對稱機算法...................................................................................52.4遷徙學習算法.................................................................................................52.5自然語言分析算法.........................................................................................52.6學習率自適應方法.........................................................................................53深度學習的實質(zhì)應用..............................................................................................53。1語音辨別.......................................................................................................63。2視頻剖析........................................................................................................63。3人臉辨別.......................................................................................................63.4圖像辨別和檢索.............................................................................................74深度學習的問題及發(fā)展趨向....................................................................................75總結(jié)............................................................................................................................8參照文件........................................................................................................................9深度學習綜述綱要:深度學習是機器學習研究中的一個新領(lǐng)域,在于成立、模擬人腦進行剖析學習的神經(jīng)網(wǎng)絡,它模擬人腦的體制來解說數(shù)據(jù).近來幾年來,深度學習在各領(lǐng)域上也獲得了豐富的研究成就。本文簡要闡述了深度學習的觀點、模型、算法以及在各領(lǐng)域的應用,最后說明深度學習的問題及發(fā)展趨向.要點字:深度學習,神經(jīng)網(wǎng)絡,機器學習ReviewofDeepLearningAbstract:Deepleaningisanewfieldinmachinelearningresearch.Itisawhichsimulatesthehumanbraintoanalyzeandstudythemechanismofthehumantointerpretthedata.Inrecentyears,deepleaninghasachievedfruitfulresultsinvariousfields。Thispaperbrieflydiscussestheconcept,model,algorithmandapplicationinvariousfieldsofdeeplearning.Finally,explainstheproblemsanddevelopmenttrendofdeeplearning。Keywords:Deeplearning,neuralnetwork,machinelearning深度學習的觀點深度學習是機器學習領(lǐng)域一個新的研究方向,近來幾年來在圖像辨別與檢索、語言信息辦理、語音辨別等多領(lǐng)域中都獲得較為成功的發(fā)展。深度學習應用的發(fā)展基礎在于成立模型來模擬人類大腦的神經(jīng)連結(jié)構(gòu)造,在辦理圖像、聲音和文本這些信號時,經(jīng)過多個變換階段分層對數(shù)據(jù)特色進行描繪,從而給出數(shù)據(jù)的解說。深度學習的觀點源于人工神經(jīng)網(wǎng)絡的研究。含多隱層的多層感知器就是一種深度學習構(gòu)造.深度學習經(jīng)過組合低層特色形成更為抽象的高層表示屬性類型或特色,以發(fā)現(xiàn)數(shù)據(jù)的散布式特色表示。深度學習的觀點最早G。E.Hinton等于2006年提出。鑒于堅信度網(wǎng)(DBN)提出非監(jiān)察貪婪訓練逐層算法,為解決深層構(gòu)造有關(guān)的優(yōu)化難題帶來希望,隨后提出多層自動編碼器深層構(gòu)造。其余Lecun等人提出的卷積神經(jīng)網(wǎng)絡是第一個真切多層構(gòu)造學習算法,它利用空間相對關(guān)系減少參數(shù)數(shù)目以提升訓練性能。同機器學習方法同樣,深度機器學習方法也有有監(jiān)察學習和無監(jiān)察學習之分,不一樣的學習框架下成立的學習模型不一樣。比如卷積神經(jīng)網(wǎng)絡就是一種深度的監(jiān)察學習下的機器學習模型,而就是一種無監(jiān)察學習下的機器學習模型.0典型的深度學習模型有卷積神經(jīng)網(wǎng)絡、深度置信網(wǎng)絡和貨倉自編碼網(wǎng)絡模型等,下邊對這些模型進行描繪。1.1卷積神經(jīng)網(wǎng)絡模型卷積神經(jīng)網(wǎng)絡是人工神經(jīng)網(wǎng)絡的一種,已成為目前語音剖析和圖像辨別領(lǐng)域的研究熱門。它的權(quán)值共享網(wǎng)絡構(gòu)造使之更近似于生物神經(jīng)網(wǎng)絡,降低了網(wǎng)絡模型的復雜度,減少了權(quán)值的數(shù)目。該長處在于網(wǎng)絡的輸入是多維圖像時表現(xiàn)的更為明顯,使圖像能夠直接作為網(wǎng)絡的輸入,防止了傳統(tǒng)算法中復雜的特色提取和數(shù)據(jù)重修過程。卷積網(wǎng)絡是為辨別二維形狀而特別設計的一個多層感知器,這類網(wǎng)絡構(gòu)造對平移、比率縮放、傾斜或是其余形式的變形擁有高度不變形。Lecun的卷積神經(jīng)網(wǎng)絡由卷積層和子抽樣層兩種種類的神經(jīng)網(wǎng)絡層構(gòu)成。每一層有一個拓撲圖構(gòu)造,即在接收域內(nèi),每個神經(jīng)元與輸入圖像中某個地點對應的固定二維地點編碼信息關(guān)系。在每層的各個地點散布著很多不一樣的神經(jīng)元,每個神經(jīng)元有一組輸入權(quán)值,這些權(quán)值與前一層神經(jīng)網(wǎng)絡矩形塊中的神經(jīng)元關(guān)系;同一組權(quán)值和不一樣輸入矩形塊與不一樣地點的神經(jīng)元關(guān)系.下列圖是一個用于手寫體字符識其余卷積神經(jīng)網(wǎng)絡,由一個輸入層、四個隱層和一個輸出層構(gòu)成。由下列圖能夠看出,與完整連結(jié)的多層前饋感知器網(wǎng)絡對比,卷積神經(jīng)網(wǎng)絡經(jīng)過使用接收域的局部連結(jié),限制了網(wǎng)絡構(gòu)造。卷積神經(jīng)網(wǎng)絡的另一個特色是權(quán)值共享,圖中包含大批連結(jié)權(quán)值,可是因為同一隱層的神經(jīng)元共享同一權(quán)值集,大大減少了自由參數(shù)的數(shù)目。圖1-1用于手寫體字符識其余卷積神經(jīng)網(wǎng)絡卷積神經(jīng)網(wǎng)絡實質(zhì)上實現(xiàn)一種輸入到輸出的映照關(guān)系,能夠?qū)W習大批輸入與輸出之間的映照關(guān)系,不需要任何輸入和輸出之間的精準數(shù)學表達式,只需用已知的模式對卷積神經(jīng)網(wǎng)絡加以訓練,就能夠使網(wǎng)絡擁有輸入輸出之間的映照能力.1卷積神經(jīng)網(wǎng)絡履行的是有監(jiān)察訓練,在開始訓練前,用一些不一樣的小隨機數(shù)對網(wǎng)絡的全部權(quán)值進行初始化。卷積神經(jīng)網(wǎng)絡中這類層間聯(lián)系和空域信息的密切關(guān)系,使其適于圖像辦理和理解。并且,在其自動提取圖像的明顯特色方面還表現(xiàn)出了比較優(yōu)秀的性能.在目前大多數(shù)的工作中,研究者將卷積神經(jīng)網(wǎng)絡應用到了多種機器學習問題中,包含人臉辨別,文檔剖析和語言檢測等.為了達到找尋視頻中幀與幀之間的相關(guān)性的目的,目前卷積神經(jīng)網(wǎng)絡經(jīng)過一個時間想干性去訓練,但這個不是卷積神經(jīng)網(wǎng)絡獨有的。1。2深度相信網(wǎng)絡模型深度相信網(wǎng)絡能夠解說為貝葉斯概率生成模型,由多層隨機隱變量構(gòu)成,上面的兩層擁有無向?qū)ΨQ連結(jié),下邊的層獲得來自上一層的自頂向下的有向連結(jié),最基層單元的狀態(tài)為可見輸入數(shù)據(jù)向量。深度相信網(wǎng)絡由若干構(gòu)造單元貨倉組成,如圖1-2所示,構(gòu)造單元往常為RBM.貨倉中每個RBM單元的可視層神經(jīng)元數(shù)目等于前一RBM單元的隱層神經(jīng)元數(shù)目.依據(jù)深度學習體制,采納輸入樣例訓練第一層RBM單元,并利用其輸出訓練第二層RBM模型,將RBM模型進行貨倉經(jīng)過增添層來改良模型性能。在無監(jiān)察預訓練過程中,DBN編碼輸入到頂層RBM后解碼頂層的狀態(tài)到最基層的單元實現(xiàn)輸入的重構(gòu)。圖1—2DBN的生成過程RBM的無向圖模型如圖1—3所示,作為DBN的構(gòu)造單元,RBM與每一層DBN共享參數(shù)。2圖1—3RBM的無向圖模型RBM是一種特別形式的波爾茲曼機,變量之間的圖模型連結(jié)形式有限制,只有可見層節(jié)點與隱層節(jié)點之間有連結(jié)權(quán)值,而可見層節(jié)點與可見層節(jié)點以及隱層節(jié)點與隱層節(jié)點之間無連結(jié)。1.3貨倉自編碼網(wǎng)絡模型貨倉自編碼網(wǎng)絡的構(gòu)造與深度相信網(wǎng)絡近似,由若干構(gòu)造單元貨倉構(gòu)成,不同之處在于其構(gòu)造單元為自編碼模型而不是RBM。自編碼模型是一個兩層的神經(jīng)網(wǎng)絡,第一層稱為編碼層,第二層稱為解碼層.如圖1—4所示,訓練該模型的目的是用編碼器c(·)將輸入x編碼成表示c(x),再用解碼器g(·)從c(x)表示中解碼重構(gòu)輸入r(x)=g(c(x))。所以,自編碼模型的輸出是其輸入自己,經(jīng)過最小化重構(gòu)偏差L(r(x),x)來履行訓練。當隱層是線性的,并且L(r(x),x)=‖r(x),x‖2是平方偏差時,c(x)訓練網(wǎng)絡將輸入投影到數(shù)據(jù)的主重量空間中,此時自編碼模型的作用等效于PCA;當隱層非線性時與PCA不一樣,獲得的表示能夠貨倉成多層,自編碼模型能夠獲得多模態(tài)輸入散布。重構(gòu)偏差的概率散布能夠解說為非歸一化對數(shù)概率密度函數(shù)這類特別形式的能量函數(shù),意味著有低重構(gòu)偏差的樣例對應的模型擁有更高的概率.圖1-4自編碼模型構(gòu)造3自編碼模型的重構(gòu)偏差的梯度與深度相信網(wǎng)絡的CD更新規(guī)則表達式存在對應關(guān)系。貨倉自編碼網(wǎng)絡的構(gòu)造單元除了上述的自編碼模型以外,還能夠使用自編碼模型的一些變形,如降噪自編碼模型和縮短自編碼模型等.降噪自編碼模型防止了一般的自編碼模型可能會學習獲得無編碼功能的恒等函數(shù)和需要樣本的個數(shù)大于樣本的維數(shù)的限制,試試經(jīng)過最小化降噪重構(gòu)偏差,從含隨機噪聲的數(shù)據(jù)中重構(gòu)真切的原始輸入。降噪自編碼模型使用由少許樣本構(gòu)成的微批次樣本履行隨機梯度降落算法,這樣能夠充分利用圖辦理單元的矩陣到矩陣迅速運算使得算法能夠更快地收斂。降噪自編碼模型與得分般配方法直接有關(guān)。得分般配是一種概括原理,當所求解的問題易于辦理時,能夠用來取代極大似然求解過程。深度學習算法2。1深度費希爾映照方法Wong等人提出一種新的特色提取方法—-正則化深度費希爾映照方法,學習從樣本空間到特色空間的顯式映照,依據(jù)Fisher準則用深度構(gòu)造神經(jīng)網(wǎng)絡提升特色的劃分度.深度構(gòu)造神經(jīng)網(wǎng)絡擁有深度非局部學習構(gòu)造,從更少的樣本中學習變化很大的數(shù)據(jù)集中的特色,顯示出比核方法更強的特色辨別能力,同時RDFM方法的學習過程因為引入正則化因子,解決了學習能力過強帶來的過擬合問題.在各樣種類的數(shù)據(jù)集長進行試驗,獲得的結(jié)果說了然在深度學習微調(diào)階段運用無監(jiān)察正則化的必需性。2。2非線性變換方法Raiko等人提出了一種非線性變換方法,該變換方法使得多層感知器網(wǎng)絡的每個隱神經(jīng)元的輸出擁有零輸出和均勻值上的零斜率,使學習MLP變得更簡單。將學習整個輸入輸出函數(shù)的線性部分和非線性部分盡可能分開,用shorteut權(quán)值成立線性映照模型,令Fisher信息陣靠近對角陣,使得標準梯度靠近自然梯度.經(jīng)過實考證明非線性變換方法的有效性,該變換使得基本隨機梯度學習與目前的學習算法在速度上伯仲之間,并有助于找到泛化性能更好的分類器.用這類非線性變換方法實現(xiàn)的深度無監(jiān)察自編碼模型進行圖像分類和學習圖像的低維表示的實驗,說明這些變換有助于學習深度起碼達到五個隱層的深度構(gòu)造神經(jīng)網(wǎng)絡,證了然變換的有效性,提升了基本隨機梯度學習算法的速度,有助于找到泛化性4能更好的分類器。2。3稀少編碼對稱機算法Ranzato等人提出一種新的有效的無監(jiān)察學習算法——稀少編碼對稱機,能夠在不必歸一化的狀況下有效產(chǎn)生稀少表示。稀少編碼對稱機的損失函數(shù)是重構(gòu)偏差和稀少罰函數(shù)的加權(quán)總和,鑒于該損失函數(shù)比較和選擇不一樣的無監(jiān)察學習機,提出一種與文件算法有關(guān)的迭代在線學習算法,并在理論和實驗大將稀少編碼對稱機與深度相信網(wǎng)絡和PCA進行比較,在手寫體數(shù)字辨別MNIST數(shù)據(jù)集和實質(zhì)圖像數(shù)據(jù)集長進行實驗,表示該方法的優(yōu)勝性。2.4遷徙學習算法在很多常有學習場景中訓練和測試數(shù)據(jù)集中的類標簽不一樣,一定保證訓練和測試數(shù)據(jù)集中的相像性進行遷徙學習.Mesnil等人研究了用于無監(jiān)察遷徙學習場景中學習表示的不一樣種類模型構(gòu)造,將多個不一樣構(gòu)造的層貨倉使用無監(jiān)察學習算法用于五個學習任務,并研究了用于少許已標志訓練樣本的簡單線性分類器貨倉深度構(gòu)造學習算法。叫研究了無監(jiān)察遷徙學習問題,議論了無監(jiān)察預訓練實用的原由,怎樣在遷徙學習場景中利用無監(jiān)察預訓練,以及在什么狀況下需要注意從不一樣數(shù)據(jù)散布獲得的樣例上的展望問題。2。5自然語言分析算法Collobert鑒于深度遞歸卷積圖變換網(wǎng)絡提出一種迅速可擴展的鑒別算法用于自然語言分析,將文法分析樹分解到貨倉層中,只用很少的基本文本特色,獲得的性能與現(xiàn)有的鑒別分析器和標準分析器的性能相像,而在速度上有了很大提升。2.6學習率自適應方法學習率自適應方法可用于提升妙度構(gòu)造神經(jīng)網(wǎng)絡訓練的收斂性并且去除超參數(shù)中的學習率參數(shù),此中包含全局學習率、層次學習率、神經(jīng)元學習率和參數(shù)學習率等。近來研究人員提出了一些新的學習率自適應方法,如Duchi等人提出的自適應梯度方法和Schaul等人提出的學習率自適應方法;Leroux等人提出自然梯度的對角低秩在線近似方法,并說明該算法在一些學習場景中能加快訓練過程。深度學習的實質(zhì)應用53.1語音辨別2011年,微軟語音辨別采納深度學習技術(shù)降低語音辨別錯誤20-30%,是該領(lǐng)域十多年來最大的打破性進展.2013年6月18日,微軟宣告已經(jīng)研發(fā)出一種新型語音辨別技術(shù),可供給“靠近即時”的語音至文本的變換服務,比目前的語音辨別技術(shù)快兩倍。同時,正確率提升了15%,該技術(shù)模擬人類大腦對交流理解的方式。深度神經(jīng)網(wǎng)絡技術(shù)能夠像人類大腦同樣工作,該技術(shù)將會取代谷歌等競爭敵手在搜尋和安卓產(chǎn)品中常用的技術(shù)。在國際上,IBM、谷歌等企業(yè)都迅速進行了深度學習語音辨別研究,并且速度飛速。國內(nèi)方面,科大訊飛、百度、中科院自動化所等企業(yè)或研究單位,也在進行深度學習在語音辨別上的研究.3。2視頻剖析描繪視頻的靜態(tài)圖像特色能夠采納從imageNet上學習的獲得的深度模型。過去的視覺研究方法對動向特色的描繪常常依靠于光流預計、對要點點的追蹤和動向紋理。怎樣將這些信息表此刻深度模型中是個難點。最直接的做法是將視頻是為三維圖像,直策應用卷積網(wǎng)絡在每一層學習三維濾波器??墒沁@一思路明顯沒有考慮到時間維和空間維的差別性.此外一種簡單更為有效的思路是,經(jīng)過與辦理計算光流場或其余動向特色的空間廠散布,作為卷及網(wǎng)絡的一個輸入通道。也有研究工作利用深度編碼器以非線性的方式提取動向紋理。在最新的研究工作中,長短時記憶網(wǎng)絡遇到寬泛關(guān)注,它能夠捕獲長久依靠性,對視頻中復雜的動向建模.3。3人臉辨別深度學習在物體辨別上的另一個重要打破就是人臉辨別。人臉識其余最大挑戰(zhàn)是怎樣劃分因為光芒、姿態(tài)和表情等要素惹起的類內(nèi)變化和因為身份不一樣產(chǎn)生的類間變化.這兩種變化的散布是非線性的,且極為復雜,傳統(tǒng)的線性模型沒法將它們有效劃分開。深度學習的目的是經(jīng)過多層的非線性變換獲得新的特色表示。這些特色須盡可能多地去掉內(nèi)變化,而保存類間變化.人臉辨別包含人臉確認和人臉辨別兩種任務。人臉確認是判斷兩張人臉照片能否屬于同一個人的,屬于二分類問題。人臉鑒別是將一張人臉分為N個類型之一,類型是由人臉的身份定義的。這個是多分類問題,更擁有挑戰(zhàn)性,其難度跟著類型數(shù)的增添而增大。兩種任務都能夠經(jīng)過深度模型學習人臉的特色表達。63.4圖像辨別和檢索深度相信網(wǎng)絡和貨倉自編碼網(wǎng)絡在單個圖像辨別任務中表現(xiàn)出很好的性能,成功用于生成緊湊而存心義的圖像檢索表示形式,并且已用于大型圖像檢索任務中,獲得特別好的結(jié)果。圖像辨別方面比深度相信網(wǎng)絡更一般的方法。Taylor等人將條件深度相信網(wǎng)絡用于視頻排序和人類動作合成,條件深度相信網(wǎng)絡使得深度相信網(wǎng)絡的權(quán)值與以前的數(shù)據(jù)有關(guān)系,能夠提升訓練的有效性.Lee和Raina等人用稀少編碼和深度相信網(wǎng)絡從自然圖像中學習有效特色表示。Nair等人提出改良的深度相信網(wǎng)絡,該模型的頂層模型用三階BM,他們將這類模型用于三維目表記別任務NORB數(shù)據(jù)集上,實驗結(jié)果顯示出訓練獲得了很低的展望偏差率.Tang等人提出兩種策略來提升妙度相信網(wǎng)絡的魯棒性,第一將深度相信網(wǎng)絡的第一層擁有稀少連結(jié)構(gòu)造引入正則化方法,接著提出一種概率降噪算法,這些技術(shù)在高噪聲圖像辨別任務和隨機噪聲的魯棒性方面顯示出其有效性。Lee等人提出一種深度學習方法使腦圖像切割自動化,用卷積神經(jīng)網(wǎng)絡成立用于腦圖像切割的鑒別特色,能自動從人類專家供給的類標簽中進行學習,經(jīng)過實驗考證該方法在自動多類腦圖像切割方面顯示出優(yōu)勝的性能,表示該方法能夠代替已有的模板圖像切割方法,減少了圖像切割過程對人類專家的干涉和對先驗信息的需求。深度學習的問題及發(fā)展趨向深度學習算法在計算機視覺(圖像辨別、視頻辨別等)和語音辨別中的應用,特別是大規(guī)模數(shù)據(jù)集下的應用獲得打破性的進展,但仍有以下問題值得進一步研究:(1)無標志數(shù)據(jù)的特色學習目前,標志數(shù)據(jù)的特色學習仍舊占有主導地位,而真切世界存在著海量的無標志數(shù)據(jù),將這些無標志數(shù)據(jù)逐個增添人工標簽,明顯是不現(xiàn)實的。所以,跟著數(shù)據(jù)集和儲存技術(shù)的發(fā)展,勢必愈來愈重視對無標志數(shù)據(jù)的特色學習,以及將無標志數(shù)據(jù)進行自動增添標簽技術(shù)的研究。(2)模型規(guī)模與訓練速度、訓練精度之間的衡量一般地,同樣數(shù)據(jù)集下,模型規(guī)模越大,訓練精度越高,訓練速度會越慢.比如一些模型方法采納ReLU非線性變換、GPU運算,在保證精度的前提下,常常需要訓練。固然離線訓練并不影響訓練以后模型的應用,可是關(guān)于模型優(yōu)化,諸如模型規(guī)模調(diào)整、超參數(shù)設置、訓練時調(diào)試等問題,訓練時間會嚴重影響其

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論