《人工智能深度學習應用開發(fā)》題庫答案_第1頁
《人工智能深度學習應用開發(fā)》題庫答案_第2頁
《人工智能深度學習應用開發(fā)》題庫答案_第3頁
《人工智能深度學習應用開發(fā)》題庫答案_第4頁
《人工智能深度學習應用開發(fā)》題庫答案_第5頁
已閱讀5頁,還剩11頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

單元1人工神經(jīng)網(wǎng)絡機器學習監(jiān)督學習模式無監(jiān)督學習模式真實值(groundtruth人工神經(jīng)網(wǎng)絡數(shù)據(jù)量大計算力提升網(wǎng)絡規(guī)模大數(shù)據(jù)量硬件依賴特征工程解決問題的方法執(zhí)行時間可解釋性計算機視覺自然語言處理強化學習BCCCDCDAB√×√√√√√√人工智能最核心的部分可以理解為類似人的大腦,就是機器學習,機器學習是實現(xiàn)人工智能的核心方法,人工智能的核心就是由各種算法作為支撐的。神經(jīng)網(wǎng)絡簡單來說就是機器學習眾多算法中的一類,其原理就是模仿人腦的思維邏輯。Theano、Scikit-learn、Caffe、Torch、MXNet、PyTorch、Keras和TensorFlow。深度學習中的每種算法都具有相似的學習過程,深度學習過程的步驟如下:(1)選擇相關(guān)數(shù)據(jù)集并準備進行分析;(2)選擇要使用的算法,基于算法構(gòu)建分析模型;(3)在訓練數(shù)據(jù)集上訓練模型,并根據(jù)需要對模型進行修改;(4)對訓練得到的模型進行測試。深度學習與機器學習的區(qū)別,深度學習與機器學習的主要區(qū)別體現(xiàn)在以下幾個方面:(1)數(shù)據(jù)量機器學習可以處理大量數(shù)據(jù)也可以處理少量數(shù)據(jù),隨著數(shù)據(jù)量的增加,機器學習的處理效果沒有明顯變化。而深度學習的特點在于,在一定范圍內(nèi),隨著數(shù)據(jù)量的增加,深度學習的處理效果是上升的。(2)硬件依賴與傳統(tǒng)的機器學習算法不同,深度學習算法需要執(zhí)行大量的矩陣乘法運算,因此深度學習需要計算機的計算能力做支撐。(3)特征工程深度學習避免了開發(fā)每個新問題的特征工程的問題。數(shù)據(jù)和特征決定了機器學習的上限,算法和模型不過是逼近這個上限。深度學習不用像傳統(tǒng)機器學習那樣人為的合成高級復雜特征,深度學習只需利用經(jīng)過先驗知識處理的一階特征,就可以學習到相關(guān)的高級復雜特征。(4)解決問題的方法傳統(tǒng)的機器學習遵循標準程序,將問題分解成多個部分,先解決每個問題,然后將他們組合起來以獲得最終的結(jié)果。而深度學習側(cè)重于端到端的解決問題。(5)執(zhí)行時間深度學習因數(shù)據(jù)量的龐大和模型參數(shù)的眾多,一般需要大量的時間進行訓練,機器學習所需要的執(zhí)行時間則相對較短。(6)可解釋性可解釋性是比較機器學習和深度學習算法的主要因素。機器學習算法為我們提供了清晰的規(guī)則和可解釋的算法推理過程,因此像決策樹、邏輯回歸等機器學習算法主要用于工業(yè)中需要可解釋性的場景中。深度學習算法主要是通過仿生的神經(jīng)網(wǎng)絡做算法推理。無監(jiān)督學習中,訓練樣本未按其所屬的類別進行標記。無監(jiān)督學習模型是識別無標簽數(shù)據(jù)結(jié)構(gòu)的模型。該模型通過尋找具有共同特征的數(shù)據(jù),并根據(jù)數(shù)據(jù)內(nèi)部知識特征對其進行分類,這種學習算法適用于聚類問題。有監(jiān)督學習以訓練集作為模型的輸入,其中每個樣本都有標注信息,我們稱標注信息為真實值(groundtruth)。模型的輸出值與真實值之間的差值用損失函數(shù)(loss)來衡量,采用最小損失函數(shù)執(zhí)行訓練過程。訓練完成后,使用驗證集或測試集測量模型的準確性。略略略

單元2深度學習圖像識別自然語言處理張量計算圖(ComputationGraph)標量向量矩陣張量數(shù)值型字符串型布爾型監(jiān)督學習向量DBD√√√√√√TensorFlow框架具有許多優(yōu)點,如高度靈活性、真正的可移植性、連接研究與產(chǎn)品、自動微分、多語言選擇以及最大化性能六大特性。TensorFlow的主要功能有以下幾個方面:(1)以張量的多維數(shù)組輕松定義、優(yōu)化和計算數(shù)學表達式;(2)支持深度神經(jīng)網(wǎng)絡和機器學習技術(shù)的編程;(3)具有多種數(shù)據(jù)集、網(wǎng)絡模型等高度可擴展的計算模塊;(4)允許模型部署到工業(yè)生產(chǎn)的應用中;(5)支持GPU計算,實現(xiàn)了自動化管理。提供了對初學者友好的高級API——Keras接口。例:importtensorflowastfa=tf.constant(5)print(a)print('a是{}維Tensor'.format(a.ndim))例:importpat.v1aspat.v1.disable_eager_execution()matrix1=tf.constant([[3,3,1],[2,2,2],[1,1,1]])matrix2=tf.constant([[2],[3],[4]])product=tf.matmul(matrix1,matrix2)print(product)withtf.Session()assess:result=sess.run(product)print(result)答案詳見2.6節(jié)。答案詳見2.7節(jié)。

單元3用戶友好模塊化易擴展性基于Python實現(xiàn)序列式(Sequential)函數(shù)式(Functional)子類(Subclassing)激活函數(shù)損失函數(shù)優(yōu)化器正則化器目標函數(shù)有準確率(Accuracy)精確度(Precision)召回率(Recall)有激活函數(shù)損失函數(shù)優(yōu)化器正則化器輸入層隱藏層輸出層卷積層池化層一維二維三維數(shù)據(jù)預處理建立模型編譯模型訓練模型評估模型模型預測importkerasfromkeras.datasetsimportmnistfromkeras.modelsimportSequentialfromkeras.layersimportDense,Dropoutfromkeras.optimizersimportRMSpropimportnumpyasnpDAACBABC√√√√√√√√Keras提供了一種簡潔的方法來創(chuàng)建基于TensorFlow或Theano的深度學習模型,并運用了各種優(yōu)化技術(shù)使神經(jīng)網(wǎng)絡API調(diào)用變得輕松高效。Keras框架具有以下功能特點:(1)用戶友好,Keras是專門為用戶而設計的API;(2)模塊化網(wǎng)絡模型是由一系列獨立的、完全可配置的模塊組成的序列;(3)易擴展性使用keras創(chuàng)建的模型,可以增加或刪除模塊,以提升模型的性能,新的模塊是很容易添加的;(4)基于Python實現(xiàn)Keras沒有特定格式的單獨配置文件,模塊是用Python代碼來定義的,這些代碼緊湊,易于調(diào)試,并且易于擴展。26.Keras提供了許多內(nèi)置的與神經(jīng)網(wǎng)絡相關(guān)的功能模塊,用戶可以方便地調(diào)用模塊創(chuàng)建Keras模型和Keras層,常用的核心模塊有激活函數(shù)、損失函數(shù)、優(yōu)化器和正則化器等。27.Keras模型中的每個層代表神經(jīng)網(wǎng)絡模型中的對應層,Keras提供了許多預構(gòu)建層,如輸入層、隱藏層、輸出層、卷積層、池化層等,因此提高了構(gòu)建復雜神經(jīng)網(wǎng)絡模型的效率。28.深度學習框架Keras是像搭積木般構(gòu)建神經(jīng)網(wǎng)絡模型,主要分為6個部分,每個部分只需調(diào)用kerasAPI函數(shù)就能實現(xiàn)。使用keras框架建模流程通常包括:(1)數(shù)據(jù)預處理:獲取并預處理訓練數(shù)據(jù);(2)建立模型:定義由網(wǎng)絡層組成的網(wǎng)絡或模型,將輸入數(shù)據(jù)映射成目標;(3)編譯模型:配置訓練過程參數(shù),包括損失函數(shù)、優(yōu)化器、模型評估指標;(4)訓練模型:調(diào)用函數(shù)在訓練數(shù)據(jù)上進行迭代,更新模型權(quán)重;(5)評估模型:使用測試集或驗證數(shù)據(jù)集,評估模型的性能是否達到要求;(6)模型預測:使用訓練好的模型預測新的數(shù)據(jù)。29.Keras是功能強大且易于使用的深度學習框架之一,它建立在TensorFlow等流行的深度學習框架的基礎(chǔ)上,旨在快速定義深度學習模型,使創(chuàng)建深度學習模型更為簡單。詳見3.5.詳見3.6.略。

單元4神經(jīng)網(wǎng)絡(NeuralNetwork)神經(jīng)元生物神經(jīng)元模型輸入層輸出層全連接神經(jīng)網(wǎng)絡Sigmoid函數(shù)solftmax前饋神經(jīng)網(wǎng)絡感知機CCCCAACAD√√√√×√√√25.隨著神經(jīng)科學和認知科學的不斷進步,科學家們對人類大腦的神經(jīng)系統(tǒng)的認知更為清晰,早期的神經(jīng)科學家構(gòu)造了一種模仿人腦神經(jīng)系統(tǒng)的數(shù)學模型,稱為人工神經(jīng)網(wǎng)絡(ArtificialNeuralNetwork,ANN),簡稱神經(jīng)網(wǎng)絡。在機器學習領(lǐng)域,神經(jīng)網(wǎng)絡是指由很多人工神經(jīng)元構(gòu)成的網(wǎng)絡結(jié)構(gòu)模型。26.神經(jīng)網(wǎng)絡的神經(jīng)元中,輸入數(shù)據(jù)通過加權(quán)求和后,還被作用了一個函數(shù),這個函數(shù)就是激活函數(shù)。激活函數(shù)有以下特點:1.非線性;2可微性;3.單調(diào)性;4.輸出與輸入值相差不大;5.輸出值范圍不大。27.Sigmoid函數(shù)也叫Logistic函數(shù),定義為:1/(1+e-x),優(yōu)點:它的一個優(yōu)良特性就是能夠把??∈??的輸入“壓縮”到??∈[0,1]區(qū)間,這個區(qū)間的數(shù)值在機器學習常用來表示以下意義:概率分布,[0,1]區(qū)間的輸出和概率的分布范圍契合,可以通過Sigmoid函數(shù)將輸出轉(zhuǎn)譯為概率輸出信號強度,一般可以將0~1理解為某種信號的強度,如像素的顏色強度,1代表當前通道顏色最強,0代表當前通道無顏色;抑或代表門控值(Gate)的強度,1代表當前門控全部開放,0代表門控關(guān)閉Sigmoid函數(shù),連續(xù)可導,相對于階躍函數(shù),可以直接利用梯度下降算法優(yōu)化網(wǎng)絡參數(shù),應用的非常廣泛。28.卷積(Convolution),也叫褶積,是分析數(shù)學中一種重要的運算。在信號處理或圖像處理中,經(jīng)常使用一維或二維卷積。29.LeNet-5共有7層,包括2個卷積層、2個池化層、3個全連接層。過程詳見4.7LeNet-5是最早提出的卷積神經(jīng)網(wǎng)絡,該網(wǎng)絡是由YannLeCun基于1988年以來的工作提出。LeNet-5的主要貢獻:1.在神經(jīng)網(wǎng)絡中引入卷積層;2.引入下采樣;3.卷積+池化(下采樣)+非線性激活的組合是CNN的典型特征;4.使用MPL作為分類器。31.model=Sequential()model.add(Conv2D(filters=6,kernel_size=(5,5),padding='valid',input_shape=(1,28,28),activation='tanh'))model.add(MaxPool2D(pool_size=(2,2)))model.add(Conv2D(filters=16,kernel_size=(5,5),padding='valid',activation='tanh'))model.add(MaxPool2D(pool_size=(2,2)))#池化后變成16個4x4的矩陣,然后把矩陣壓平變成一維的,一共256個單元。model.add(Flatten())#下面是全連接層model.add(Dense(120,activation='tanh'))model.add(Dense(84,activation='tanh'))model.add(Dense(10,activation='softmax'))32.#

創(chuàng)建模型序列

model

=

Sequential()

#第一層卷積網(wǎng)絡,使用96個卷積核,大小為11x11步長為4,

要求輸入的圖片為227x227,

3個通道,不加邊,激活函數(shù)使用relu

model.add(Conv2D(96,

(11,

11),

strides=(1,

1),

input_shape=(28,

28,

1),

padding='same',

activation='relu',

kernel_initializer='uniform'))

#

池化層

model.add(MaxPooling2D(pool_size=(3,

3),

strides=(2,

2)))

#

第二層加邊使用256個5x5的卷積核,加邊,激活函數(shù)為relu

model.add(Conv2D(256,

(5,

5),

strides=(1,

1),

padding='same',

activation='relu',

kernel_initializer='uniform'))

#使用池化層,步長為2

model.add(MaxPooling2D(pool_size=(3,

3),

strides=(2,

2)))

#

第三層卷積,大小為3x3的卷積核使用384個

model.add(Conv2D(384,

(3,

3),

strides=(1,

1),

padding='same',

activation='relu',

kernel_initializer='uniform'))

#

第四層卷積,同第三層

model.add(Conv2D(384,

(3,

3),

strides=(1,

1),

padding='same',

activation='relu',

kernel_initializer='uniform'))

#

第五層卷積使用的卷積核為256個,其他同上

model.add(Conv2D(256,

(3,

3),

strides=(1,

1),

padding='same',

activation='relu',

kernel_initializer='uniform'))

model.add(MaxPooling2D(pool_size=(3,

3),

strides=(2,

2)))

model.add(Flatten())

model.add(Dense(4096,

activation='relu'))

model.add(Dropout(0.5))

model.add(Dense(4096,

activation='relu'))

model.add(Dropout(0.5))

model.add(Dense(10,

activation='softmax'))

pile(loss='categorical_crossentropy',

optimizer='sgd',

metrics=['accuracy'])

model.summary()

詳見4.10.

單元5回歸一元線性回歸多元線性回歸輸入變量(自變量)輸出變量(因變量)損失函數(shù)好均方誤差過擬合(overfitting)欠擬合(underfitting)太大誤差ABACABABABA×√√√√√√√√28.機器學習的所有算法都需要最大化或者最小化目標函數(shù),在最小化場景下,目標函數(shù)又稱損失函數(shù)。29.平均絕對誤差(MeanAbsoluteError,MAE),又稱L1損失,用于評估預測結(jié)果和真實數(shù)據(jù)集的接近程度,其值越小說明擬合效果越好。均方誤差(Meansquarederror,MSE),又稱L2損失,該指標計算的是擬合數(shù)據(jù)和原始數(shù)據(jù)對應樣本點的誤差的平方和的均值,其值越小說明擬合效果越好。30.過擬合是指訓練誤差和測試誤差之間的差距太大。換句換說,就是模型復雜度高于實際問題,模型在訓練集上表現(xiàn)很好,但在測試集上卻表現(xiàn)很差。訓練數(shù)據(jù)集樣本單一,樣本不足。如果訓練樣本只有負樣本,然后那生成的模型去預測正樣本,這肯定預測不準。31.過擬合出現(xiàn)的原因為訓練數(shù)據(jù)集樣本單一,樣本不足。防止過擬合方法主要有:獲取和使用更多的數(shù)據(jù)(數(shù)據(jù)集增強);采用合適的模型(控制模型的復雜度);降低特征的數(shù)量;L1/L2正則化;加入Dropout;采用Earlystopping方法。32.詳見5.4.33.詳見5.7

單元6可信度圖片分類技術(shù)傳統(tǒng)圖像分類深度學習圖像分類二分類(BinaryClassification)準確率精確率召回率負對數(shù)似然損失(neglog-likelihoodloss)交叉熵損失(crossentropyloss)指數(shù)損失(exponentialloss)交叉熵損失函數(shù)(CrossEntropyLoss)多類分類(MulticlassClassification)多分類交叉熵損失函數(shù)DDDBB√√×√√√21.圖像分類問題受各種因素的影響,模型的性能主要面臨一下幾種挑戰(zhàn):(1)類內(nèi)變化:類內(nèi)差異是同一類圖像之間的差異。(2)比例變化:同一對象的圖像具有多種大小,且可能大小差異很大。(3)視點變化:視點變化即相對于如何在圖像中拍攝和捕獲對象。(4)遮擋:圖像中分類對象無法完全查看,很大一部分隱藏在其他對象的后面。(5)光照條件:由于照明強度不同,在圖像中像素的強度級別也有所不同。(6)背景:如果圖中有很多對象,找到特定對象非常困難22.按照圖像分類的發(fā)展過程劃分,圖像分類可以分為傳統(tǒng)圖像分類和深度學習圖像分類。傳統(tǒng)的圖像分類方法有很多,如使用近鄰分類器(NearestNeighborClassifier),將測試圖片與訓練集中的每個圖片去對比,將差別最小的那個類的標簽,作為預測結(jié)果。圖像分類從傳統(tǒng)方法到基于深度學習的方法,得益于計算機算力的提升。23.二分類模型

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論