機器學(xué)習(xí)瑞客xk深度簡介_第1頁
機器學(xué)習(xí)瑞客xk深度簡介_第2頁
機器學(xué)習(xí)瑞客xk深度簡介_第3頁
機器學(xué)習(xí)瑞客xk深度簡介_第4頁
機器學(xué)習(xí)瑞客xk深度簡介_第5頁
已閱讀5頁,還剩29頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認(rèn)領(lǐng)

文檔簡介

深度學(xué)習(xí)簡介與實戰(zhàn)人工智能發(fā)展歷程Eugene

GoostmanDeep

BlueAlphaGo人工智能應(yīng)用C:

ConsumerB:

Business很多職業(yè)在將來會消失……-記者很多職業(yè)在將來會消失……-公交車司機很多職業(yè)在將來會消失……-翻譯輕松一掃,俄語變英語以文本為對象的深度學(xué)習(xí)-作詩“姬”作詩“姬”視覺深度學(xué)習(xí)輸出視覺深度學(xué)習(xí)–梵高體照片照片的“梵高體”視覺深度學(xué)習(xí)原始圖學(xué)習(xí)模式轉(zhuǎn)換圖視覺深度學(xué)習(xí)原始圖學(xué)習(xí)模式轉(zhuǎn)換圖基于視覺深度學(xué)習(xí)的AlphaGo

Zero視覺深度學(xué)習(xí)在生物醫(yī)學(xué)領(lǐng)域的應(yīng)用神經(jīng)網(wǎng)絡(luò)簡介Neural

Networks神經(jīng)網(wǎng)絡(luò)發(fā)展歷程從上世紀(jì)80年代開始,人工神經(jīng)網(wǎng)絡(luò)(Artificial

Neural

Networks)興起由于計算機計算能力的不足和理論上的缺陷,神經(jīng)網(wǎng)絡(luò)算法被支持向量機(Support

Vector

Machine)和隨機森林(Random

Forest)等其他機器學(xué)習(xí)算法替代2006年,Hinton發(fā)布了深信度網(wǎng)絡(luò)(DeepBeliefNetworks,DBNs),開啟了深度神經(jīng)網(wǎng)絡(luò)新時代最近,由于計算機計算能力的增強和計算模式上的創(chuàng)新(GPU計算),深度學(xué)習(xí)(Deep

Learning)技術(shù)再度成為人們關(guān)注的熱點。BP神經(jīng)網(wǎng)絡(luò)構(gòu)成層(Layer)輸入層全連接層輸出層卷積神經(jīng)網(wǎng)絡(luò)——以卷積層為特點卷積神經(jīng)網(wǎng)絡(luò)是目前視覺深度學(xué)習(xí)領(lǐng)域最為流行的神經(jīng)網(wǎng)絡(luò),其特點是網(wǎng)絡(luò)中至少有一層是卷積層那么什么是卷積呢?卷積神經(jīng)網(wǎng)絡(luò)——卷積(Convolution)101010101100010001100110111雙對角線單對角線下三角1111011110101110101111681611184811116816周圍強化橫豎線高斯濾波器卷積神經(jīng)網(wǎng)絡(luò)構(gòu)成——層(Layers)層(Layer)卷積層卷積神經(jīng)網(wǎng)絡(luò)構(gòu)成——層(Layers)層(Layer)池化層mean-pooling(平均值)池化方法: max-pooling (最大值)stochastic

pooling(隨機)023101111SUM10÷1000.20.30.100.10.10.10.1按照概率選取321030%20%50%0%卷積神經(jīng)網(wǎng)絡(luò)構(gòu)成——層(Layers)層Drop-out層(按照規(guī)定百分比隨機打斷神經(jīng)元之間的連接,防止過擬合)Flatten層(將多維數(shù)據(jù)扁平化,便于連接全連接層)輸出層(常用soft-max函數(shù),輸出分類概率)卷積神經(jīng)網(wǎng)絡(luò)構(gòu)成——激活函數(shù)(activation

function)ReLU??

???

max

0,

????

?TanH激活函數(shù)

fSigmoid《白話深度學(xué)習(xí)與TensorFlow》高揚,衛(wèi)崢卷積神經(jīng)網(wǎng)絡(luò)實例——人臉識別(Deep

ID)Deep

ID香港中文大學(xué)的Sun

Yi開發(fā)出來用來學(xué)習(xí)人臉特征的卷積神經(jīng)網(wǎng)絡(luò)Tensorflow和Keras的安裝1.安裝AnaConda2.安裝Python3.5>conda

installpython=3.53.安裝Tensorflow>conda

create

-n

tensorflowpython=3.54.激活Tensorflow>activate

tensorflow5.安裝Keras>pip

install

keras安裝Anaconda安裝Python3.5啟動Anaconda

prompt>conda

install

python=3.5安裝Python3.5輸入y安裝python3.5安裝Tensorflow>conda

create

-n

tensorflow

python=3.5激活Tensorflow>activate

tensorflow

#激活Tensorflow>python

#查看python版本測試Tensorflow>Python

#進入python>>>importtensorflow

as

tf

#加載Tensorflow并簡寫為tf>>>a=tf.constant([1.0,2.0],name=“a”)

#定義常量>>>b=tf.constant([2.0,3.0],name=“b”)

#定義常量>>>result=a+b

#Tensorflow加載NumPy,可以直接用加號>>>sess=tf.Session()

#需要生成會話才能輸出結(jié)果>>>print(sess.run(result))安裝Keras>pip

ins

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論