機器學(xué)習(xí)GAN框架初探_第1頁
機器學(xué)習(xí)GAN框架初探_第2頁
機器學(xué)習(xí)GAN框架初探_第3頁
機器學(xué)習(xí)GAN框架初探_第4頁
機器學(xué)習(xí)GAN框架初探_第5頁
已閱讀5頁,還剩4頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

1、 機器學(xué)習(xí)GAN框架初探 閆東杰Summary:對于機器學(xué)習(xí),最常見的是按照數(shù)據(jù)標(biāo)簽形式劃分,可分為:監(jiān)督學(xué)習(xí)、半監(jiān)督學(xué)習(xí)、無監(jiān)督學(xué)習(xí)、強化學(xué)習(xí)。本文分析研究了機器學(xué)習(xí)GAN框架。Key:人工智能;機器學(xué)習(xí);無監(jiān)督學(xué)習(xí):TP181 :A :1007-9416(2019)06-0195-020 引言對于原始的GAN網(wǎng)絡(luò),實際上還是種生成模型,與傳統(tǒng)的生成模型不同的是,在對生成器進行訓(xùn)練的過程中,引入判別器,并對判別器訓(xùn)練更新后,再進行生成器的訓(xùn)練,然后通過交替訓(xùn)練,最終得到較為理想的生成器,“順便”得到一個判別能力較強的判別器。這樣,用一種巧妙的方法,較好解決了傳統(tǒng)生成式模型中模擬最大似然估計過

2、程所帶來的需要訓(xùn)練復(fù)雜模型的問題。CNN(卷積神經(jīng)網(wǎng)絡(luò))在圖片生成方面是一個較為成熟的模型,將CNN引入,對GAN框架中生成器與判別器進行對應(yīng)的改造,得到的便為DCGAN(深度卷積生成式對抗網(wǎng)絡(luò))。1 原始GAN框架GAN的一個基本的應(yīng)用是樣本生成,這里以圖片為例進行相關(guān)的樣本生成,以此來介紹GAN框架的基本組成、模塊結(jié)構(gòu)、訓(xùn)練過程。原始GAN框架的整體模型結(jié)構(gòu)如圖1所示。GAN框架最主要的構(gòu)成是生成器與判別器:(1)生成器。為全連接的神經(jīng)網(wǎng)絡(luò),即多層感知機。多層感知機的參數(shù)在GAN運行的初始階段是隨機的,其內(nèi)部各神經(jīng)元的權(quán)重、偏值,在程序化時可由初始函數(shù)進行實現(xiàn)。這就是說,在剛開始引入的時候

3、,并不需要對生成網(wǎng)絡(luò)進行預(yù)先的訓(xùn)練。其通過前向傳播,盡量去模仿、建模和學(xué)習(xí)真實數(shù)據(jù)的分布規(guī)律。通過反向傳播來學(xué)習(xí)并進行內(nèi)部參數(shù)更新。(2)判別器。其本質(zhì)為全連接型的神經(jīng)網(wǎng)絡(luò)構(gòu)成的二分類器。其參數(shù)在初始時內(nèi)部參數(shù)是隨機生成的,同樣不需要預(yù)先進行參數(shù)設(shè)置或者訓(xùn)練。其判別自己所得到的一個輸入數(shù)據(jù),到底是來自于真實的數(shù)據(jù)分布還是來自于一個生成模型,輸出結(jié)果為一個概率值,表明判別器認為數(shù)據(jù)來自真實分布的概率。通過反向傳播來進行參數(shù)更新。(3)其他模塊。GAN框架中,除了最主要的生成器和判別器,還有些重要的功能模塊。噪聲處理模塊;隨機噪聲Z是具有某個已知分布的噪聲,分布的類型可以進行設(shè)定的,常用的分布有高

4、斯分布與平均分布。隨機噪聲對于生成網(wǎng)絡(luò)的輸入,效果相當(dāng)于對自動控制系統(tǒng)輸入簡單的單位信號,當(dāng)?shù)玫捷敵鼋Y(jié)果時,其拉普拉斯變換后的函數(shù)就是系統(tǒng)的傳遞函數(shù)。同理,這樣對于輸出圖片的分布的參數(shù)就是生成網(wǎng)絡(luò)的內(nèi)部參數(shù)。通過預(yù)處理轉(zhuǎn)化模塊,對于原始的GAN來講,轉(zhuǎn)化為一維的特征向量,這樣才能與后面的生成網(wǎng)絡(luò)輸入層進行對接。這樣處理后的數(shù)據(jù)更加的清晰,且特征的個數(shù)對應(yīng)著輸入層神經(jīng)元的個數(shù)。生成分布抽樣模塊;真實樣本預(yù)處理模塊;損失函數(shù)計算模塊。2 “對抗”訓(xùn)練GAN框架的基本思想,就是通過一個生成神經(jīng)網(wǎng)絡(luò)去模擬真實給定的數(shù)據(jù),這個神經(jīng)網(wǎng)絡(luò)模擬的是最大似然估計的過程,從而達到生成的目的。優(yōu)化生成器是通過引入判

5、別器后,順承判別器的更新,進行反向傳播優(yōu)化的?,F(xiàn)在有一個神經(jīng)網(wǎng)絡(luò)模型,希望它的參數(shù)可以達到最優(yōu),然后通過模擬最大似然估計的過程,很明顯,最后也會得到“真實圖片”。所以有以下式(1):(1)式中:G為生成器參數(shù),D為判別器參數(shù),V(G D)為引入的差距函數(shù),m為訓(xùn)練樣本的數(shù)目,D(x)為判別器對真實樣本的判斷屬于真實數(shù)據(jù)的概率,D(G(z)為判別器對生成樣本的判斷屬于真實數(shù)據(jù)的概率。當(dāng)返回損失函數(shù)梯度后,首先是對判別器優(yōu)化,因為生成器的參數(shù)這時是確定的、不變的,所以差距函數(shù)就可以看做只與判別器參數(shù)有關(guān),有就是說,固定生成器后,調(diào)整判別器參數(shù)的同時,就影響著差距函數(shù)的值。判別器的目的是希望更好地區(qū)

6、分真實圖片與生成圖片,當(dāng)然需要使差距函數(shù)越大越好,所以優(yōu)化過程的第一步是優(yōu)化判別器: (2)式中:D1為在系統(tǒng)在G0確定、D0判定結(jié)果的前提下使得插句話最大時判別器的參數(shù),G0為生成器的初始參數(shù),D0為判別器的初始參數(shù)。由式(2)可得: (3)這時判別器的參數(shù)得到了更新,那對于生成器呢?更新后的判別器還需要再次對生成圖片進行判斷。相較于更新之前的判別器,優(yōu)化后相當(dāng)于用更為嚴(yán)苛的標(biāo)準(zhǔn)去識別生成圖片。而生成器的目標(biāo)是希望盡可能真實地產(chǎn)生圖片,當(dāng)判別器用更為嚴(yán)格的方式去識別,生成器依舊能很好地生成,這就得更加接近最優(yōu)解,所以從生成器的角度,需要使式(3)的值更小,所以得到公式:(4)式中:G1為更新

7、后的生成器的參數(shù)。將式(3)代入式(4)可得:(5)式中:D1(x)為更新后判別器對真實圖片的判定結(jié)果,D1(G(z)為更新后判別器對生成圖片的判定結(jié)果。在這個過程中,判別器的目標(biāo)是把生成器生成的圖片和真實的圖片區(qū)分開來,得到兩個判定概率,將結(jié)果返回判別器D中計算損失函數(shù)與梯度,再用梯度上升法進行更新參數(shù),最后,對生成數(shù)據(jù)的最后一次判定,結(jié)果返回生成網(wǎng)絡(luò),計算對應(yīng)的損失函數(shù)并反向傳播更新參數(shù)。這是一個完整的訓(xùn)練過程,在一次訓(xùn)練中,判別網(wǎng)絡(luò)與生成網(wǎng)絡(luò)依次得到參數(shù)更新,相應(yīng)的判別能力與生成能力增強。然后在進行下一輪訓(xùn)練樣本的輸入。這樣,生成網(wǎng)絡(luò)G和判別網(wǎng)絡(luò)D構(gòu)成了一個所謂的動態(tài)的“對抗博弈過程”。

8、假設(shè)每次得到的參數(shù)都是理想的,對判別網(wǎng)絡(luò)的參數(shù)都會得到階段性的最優(yōu)解,對生成網(wǎng)絡(luò)也得到了最優(yōu)解,結(jié)果指向就是生成分布等于真實分布,GAN在最理想的狀態(tài)下達到了納什平衡。在生成模塊G可以生成足以“以假亂真”的生成圖片;對于判別模塊D來說,此時的它難以判定G生成的圖片是否是來自真實樣本。這就很好地體現(xiàn)了生成網(wǎng)絡(luò)從無到有產(chǎn)生“真實圖片”的過程。3 引入CNNCNN,即卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network),是受到生物思考方式啟發(fā)的多層感知器,是一種前饋神經(jīng)網(wǎng)絡(luò),人工神經(jīng)元可以響應(yīng)周圍單元,這種網(wǎng)絡(luò)可以用來進行大型的圖像處理。卷積神經(jīng)網(wǎng)絡(luò)在實際上就是一種從輸入到輸出的

9、映射,它能夠?qū)W習(xí)大量的輸入與輸出之間的映射關(guān)系,而不需要任何輸入和輸出之間的精確的數(shù)學(xué)表達式,只要用已知的模式對卷積網(wǎng)絡(luò)加以訓(xùn)練,網(wǎng)絡(luò)就具有輸入輸出對之間的映射能力。與普通神經(jīng)網(wǎng)絡(luò)把輸入層、隱含層與輸出層之間進行全連接的設(shè)計相比,CNN對隱含單元和輸入單元間的連接數(shù)量加以限制:每個隱含單元僅僅只能連接輸入數(shù)據(jù)的一部分;而且,通過多層卷積層進行圖像的淺層特征提取與多層池化層深層特征提取,將圖片轉(zhuǎn)化為簡單的特征向量,這樣一來,不僅能處理規(guī)格較大的圖片,經(jīng)過前向生成與反向更新的方式來學(xué)習(xí)整幅圖像上的特征,整個過程耗時急劇縮短,計算量更小,運行時占用較小的內(nèi)存,而且生成效果更穩(wěn)定,判別器更快收斂。CN

10、N的引入主要是對生成器與判別器的改進。改進后的整體模型結(jié)構(gòu)如圖2所示。但是,引入不是單純地將CNN所有層直接接入GAN中就可以了,需要分別對生成器與判別器做一些變動:(1)對于生成器。中間層每層使用BN函數(shù)進行歸一化處理。取消所有池化層。使用相應(yīng)的轉(zhuǎn)置卷積函數(shù)進行處理。在每一層操作之后,數(shù)據(jù)輸出經(jīng)過一個Relu函數(shù)作為激活函數(shù)。除去全連接層。輸出層使用tanh作為激活函數(shù)而不能用Relu函數(shù)。(2)對于判別器。中間每層在激活函數(shù)層后使用BN函數(shù)進行歸一化處理。取消所有池化層,使用stride來代替池化層。在每一層操作之后,數(shù)據(jù)輸出經(jīng)過一個leakyRelu函數(shù)。除去全連接層。輸出層使用sigm

11、oid作為激活函數(shù),目的是要得到一個判定概率。輸出層里不使用BN函數(shù)進行歸一化操作。4 結(jié)語GAN是一個十分靈活的框架,經(jīng)過全世界研究人員對GAN網(wǎng)絡(luò)模型從框架組成、結(jié)構(gòu)、訓(xùn)練方法、損失函數(shù)類型、數(shù)據(jù)處理方法、增加約束條件、穩(wěn)定性等方面不斷地探索,原始GAN模型已經(jīng)衍生出超過100種模型框架,諸如CGAN、DCGAN、WGAN、infoGAN等。GAN網(wǎng)絡(luò)的適用范圍現(xiàn)如今已經(jīng)非常廣了,從剛開始最基本的圖片生成,到現(xiàn)在可以很好地應(yīng)用在樣本轉(zhuǎn)換、生成領(lǐng)域,可以用在圖像合成、圖像編輯、風(fēng)格遷移、圖像超分辨率以及圖形轉(zhuǎn)換、音頻的特征處理、智能創(chuàng)造等方面。A Preliminary Study of G

12、AN Framework for Machine LearningYAN Dong-jie(College of Automation, Beijing University of Information Technology,Beijing 100192)Abstract:For machine learning, the most common classification is in the form of data labels, which can be divided into: supervised learning, semi-supervised learning, unsupervise

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論