機器學習原理及應(yīng)用練習題答案_第1頁
機器學習原理及應(yīng)用練習題答案_第2頁
機器學習原理及應(yīng)用練習題答案_第3頁
機器學習原理及應(yīng)用練習題答案_第4頁
機器學習原理及應(yīng)用練習題答案_第5頁
已閱讀5頁,還剩6頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

第一章機器學習概述

1.機器學習研究什么問題,構(gòu)建一個完整的機器學習算法需要哪些要素?

機器學習主要研究如何選擇統(tǒng)計學習模型,從大量已有數(shù)據(jù)中學習特定經(jīng)驗。

構(gòu)建一個完整的機器學習算法需要三個方面的要素,分別是數(shù)據(jù),模型,性能度

量準則。

2.可以生成新數(shù)據(jù)的模型是什么,請舉出幾個例子

可以生成新數(shù)據(jù)的模型是生成模型,典型的生成模型有樸素貝葉斯分類器、

高斯混合模型、隱馬爾可夫模型、生成對抗網(wǎng)絡(luò)等。

3.監(jiān)督學習、半監(jiān)督學習和無監(jiān)督學習是什么,降維和聚類屬于哪一種?

監(jiān)督學習是指樣本集合中包含標簽的機器學習,無監(jiān)督學習是無標簽的機器

學習,而半監(jiān)督學習介于一者之間。降維和聚類是無監(jiān)督學習。

4.過擬合和欠擬合會導致什么后果,應(yīng)該怎樣避免?

過擬合導致模型泛化能力弱,發(fā)生明顯的預測錯誤,往往是由于數(shù)據(jù)量太少

或模型太復雜導致,通過增加訓練數(shù)據(jù)量,對模型進行裁剪,正則化的方式來緩

解。而欠擬合則會導致模型不能對數(shù)據(jù)進行很好地擬合,通常是由于模型本身不

能對訓練集進行擬合或者訓練迭代次數(shù)太少,解決方法是對模型進行改進,設(shè)計

新的模型重新訓練,增加訓練過程的迭代次數(shù)。

5.什么是正則化,L1正則化與L2正則化有什么區(qū)別?

正則化是一種抑制模型復雜度的方法。L1正則化能夠以較大概率獲得稀疏

解,起到特征選擇的作用,并且可能得到不止一個最優(yōu)解。L2正則化相比前者

獲得稀疏解的概率小的多,但得到的解更加平滑。

第二章邏輯回歸與最大蠟?zāi)P?/p>

1.邏輯回歸模型解決(B)

A.回歸問題

B.分類問題

C.聚類問題

D.推理問題

2.邏輯回歸屬于(B)回歸

A.概率性線性

B.概率性非線性

C.非概率性線性

D.非概率性非線性

3.邏輯回歸不能實現(xiàn)(D)

A.二分類

B.多分類

C.分類預測

D.非線性回歸

4.下列關(guān)于最大燧模型的表述錯誤的是(B)

A.最大嫡模型是基于熠值越大模型越穩(wěn)定的假設(shè)

B.最大端模型使用最大燧原理中一般意義上的焰建模以此縮小模型假設(shè)空間

C.通過定義最大嫡模型的參數(shù)可以實現(xiàn)與多分類邏輯回歸相同的作用

D.最大嫡模型是一種分類算法

5.下列關(guān)于模型評價指標的表述錯誤的是(C)

A.準確率、精確率、召回率以及AUC均是建立在混淆矩陣的基礎(chǔ)上

B.在樣本不平衡的條件下準確率并不能作為很好的指標來衡量結(jié)果

C.準確率表示所有被預測為正的樣本中實際為正的樣本的概率

D.一般來說,置信度閾值越高,召回率越低,而精確率越高

6.簡述邏輯回歸的原理。

7.最大端模型的優(yōu)點和缺點是什么?

第三章k-近鄰算法

l.k-近鄰算法的基本要素不包括(C)

A.距離度量

B.k值的選擇

C.樣本大小

D.分類決策規(guī)則

2.關(guān)于k-近鄰算法說法錯誤的是(D)

A.k-近鄰算法是機器學習

B.k.近鄰算法是無監(jiān)督學習

C.k代表分類個數(shù)

D.k的選擇對分類結(jié)果沒有影響

3.以下關(guān)于k-近鄰算法的說法中正確的是(B)

A.k-近鄰算法不可以用來解決回歸問題

B.隨著k值的增大,決策邊界會越來越光滑

C.k?近鄰算法適合解決高維稀疏數(shù)據(jù)上的問題

D.相對3近鄰模型而言,1近鄰模型的bias更大,variance更小

4.(B)不可以通過無監(jiān)督學習方式進行訓練

A.k-近鄰算法

B.決策樹

C.RBM

D.GAN

5.以下關(guān)于匕近鄰算法的說法中,錯誤的是(C)

A.一般使用投票法進行分類任務(wù)

B.k-近鄰算法屬于懶惰學習

C.k-近鄰算法訓練時間普遍偏長

D.距離計算方法不同,效果也可能有顯著差別

6.簡述k-近鄰算法的步驟。

7.k-近鄰算法有哪些優(yōu)缺點?

第四章決策樹

1.關(guān)于機器學習中的決策樹學習,說法錯誤的是(A)

A.受生物進化啟發(fā)

B.屬于歸納推理

C.用于分類和預測

D.自頂向下遞推

2.在構(gòu)建決策樹時,需要計算每個用來劃分數(shù)據(jù)特征的得分,選擇分數(shù)最高的特征,以下可

以作為得分的是(D)

A.埔

B.基尼系數(shù)

C.訓練誤差

D.以上都是

3.在決策樹學習過程中,(D)可能會導致問題數(shù)據(jù)(特征用同但是標簽不同)

A.數(shù)據(jù)噪音

B.現(xiàn)有特征不足以區(qū)分或決策

C.數(shù)據(jù)錯誤

D.以上都是

4.根據(jù)信息增益來構(gòu)造決策樹的算法是(A

A.ID3決策樹

B.遞歸

C.歸約

D.FIFO

5.決策樹構(gòu)成順序是(A)

A.特征選擇、決策樹生成、決策樹剪枝

B.決策樹剪枝、特征選擇、決策樹生成

C.決策樹生成、決策樹剪枝、特化選擇

D.特征選擇、決策樹剪枝、決策樹生成

6.決策樹適用于解決什么樣的問題?

7.ID3和CART算法有什么區(qū)別?

第五章樸素貝葉斯分類器

1.樸素貝葉斯分類器的特征不包括(C)

A.孤立的噪聲點對該分類器影響不大

B.數(shù)據(jù)的缺失值影響不大

C.要求數(shù)據(jù)的屬性相互獨立

D.條件獨立的假設(shè)可能不成立

2.樸素貝葉斯分類器基于(B)假設(shè)

A.樣本分布獨立性

B.屬性條件獨立性

C.后驗概率已知

D.先驗概率已知

3.下列關(guān)于樸素貝葉斯分類器錯誤的是(D)

A.樸素貝葉斯模型發(fā)源于古典數(shù)學理論,有穩(wěn)定的分類效率

B.對小規(guī)模的數(shù)據(jù)表現(xiàn)很好,能個處理多分類任務(wù),適合增量式訓練

C.對缺失數(shù)據(jù)不太敏感,算法也比較簡單,常用于文本分類

D.對輸入數(shù)據(jù)的表達形式不敏感

4.樸素貝葉斯分類器為(A)

A.生成模型

B.判別模型

C.統(tǒng)計模型

D.預算模型

5.下列關(guān)于樸素貝葉斯分類器正確的是(D)

A.樸素貝葉斯分類器的變量必須是非連續(xù)型變量

B.樸素貝葉斯模型中的特征和類別變量之間也要相互獨立

C.樸素貝葉斯分類器對于小樣本數(shù)據(jù)集效果不如決策樹好

D.樸素貝葉斯模型分類時需要計算各種類別的概率,取其中概率最大者為分類預

測值

6.如何理解樸素貝葉斯分類器中的拉普拉斯平滑?

7.簡述樸素貝葉斯算法的原理。

第六章支持向量機

1.支持向量指的是(B)

A.對原始數(shù)據(jù)進行采樣得到的樣本點

B.決定分類面可以平移的范隹的數(shù)據(jù)點

C.位于分類面上的點

D.能夠被正確分類的數(shù)據(jù)點

2.下面關(guān)于支持向量機(SVM)的描述錯誤的是(D)

A.是一種監(jiān)督式學習的方法

B.可用于多分類的問題

C.支持非線性的核函數(shù)

D.是一種生成式模型

3.下面關(guān)于支持向量機(SVM)的描述錯誤的是(D)

A.對于分類問題,支持向量機需要找到與邊緣點距離最大的分界線,從而確定支

持向量

B.支持向量機的核函數(shù)負責輸入變量與分類變量之間的映射

C.支持向量機可根據(jù)主題對新聞進行分類

D.支持向量機不能處理分界線為曲線的多分類問題

4.支持向量機中margin指(C)

A.盈利率

B.損失誤差

C.間隔

D.保證金

5.選擇margin最大的分類器的原因是(D)

A.所需的支持向量個數(shù)最少

B.計算復雜度最低

C.訓練誤差最低

D.有望獲得較低的測試誤差

6.支持向量機的基本思想是什么?

7.支持向量機如何實現(xiàn)多分類?

第七章集成學習

1.下列哪個集成學習器的個體學習器存在強依賴關(guān)系(A)

A.Boosting

B.Bagging

C.RandomForest

D.隨機森林

2.下列哪個集成學習器的個體學習器不存在強依賴關(guān)系(C)

A.Boosting

B.AdaBoost

C.隨機森林

D.EM

3.下列(D)不是Boosting的特點

A.串行訓練的算法

B.基分類器彼此關(guān)聯(lián)

C.串行算法不斷減小分類器訓練偏差

D.組合算法可以減小分類輸出方差

4.下列(C)不是Bagging的特點

A.各基礎(chǔ)分類器并行生成

B.各基礎(chǔ)分類器權(quán)重相同

C.只需要較少的基礎(chǔ)分類器

D.基于Bootstrap采樣生成訓練集

5.集成學習的主要思想是(D)

A.將多個數(shù)據(jù)集合集成在一起進行訓練

B.將多源數(shù)據(jù)進行融合學習

C.通過聚類算法使數(shù)據(jù)集分為多個簇

D.將多個機器學習模型組合起來解決問題

6.集成學習的基本原理是什么?舉例說明三種集成學習的應(yīng)用。

7.集成學習中生成多樣性大的個體學習器的方法有哪些?

第八章EM算法及其應(yīng)用

1.EM算法是(B)學習算法

A.有監(jiān)督

B.無監(jiān)督

C.半監(jiān)督

D.都不是

2.EM算法的E和M指(A)

A.Expectalion-Maximum

B.Expect-Maximum

C.Extra-Maximum

D.Extra-Max

3.EM算法可以應(yīng)用于(D)

A.學習貝葉斯網(wǎng)絡(luò)的概率

B.EM.聚類

C.訓練HMM

D.以上均可

4.EM算法的核心思想是(A)

A.通過不斷地求取目標函數(shù)的下界的最優(yōu)值,從而實現(xiàn)最優(yōu)化的目標。

B.列出優(yōu)化目標函數(shù),通過方法計算出最優(yōu)值

C.列出優(yōu)化目標函數(shù),通過數(shù)值優(yōu)化方法計算出最優(yōu)值

D.列出優(yōu)化目標函數(shù),通過坐標下降方法計算出最優(yōu)值

5.聚類算法包括(D)

A.K-means

B.single-linkage

C.Expectation-Maximum

D.以上都有

6.簡述EM算法的基本流程。

7.EM算法是如何應(yīng)用于GMM的?

第九章降維

L下列可以用于降維的機器學習方法是(C)

A.決策樹

B.KNN

C.PCA

D.K-means

2.下列是機器學習中降維任務(wù)的準確描述的為(B)

A.依據(jù)某個準則對項目進行排序

B.將其映射到低維空間來簡化輸入

C.預測每個項目的實際值

D.對數(shù)據(jù)對象進行分組

3.下列可以可以通過機器學習解決的任務(wù)為(A)

A.聚類、降維

B.回歸、迭代

C.分類、抽象

D.派生、推薦

4.下列關(guān)于主成分分析的表述錯誤的是(D)

A.主成分分析方法一種數(shù)據(jù)降維的方法

B.通過主成分分析,可以將多個變量縮減為少數(shù)幾個新的變量,而信息并沒有損

失,或者說信息損失很少

C.通過主成分分析,可以用較少的新的指標來代替原來較多的指標反映的信息,

并且新的指標之間是相互獨立的

D.主成分分析是數(shù)據(jù)增維的方法

5.下列關(guān)于奇異值分解的表述正確的是(C)

A.只有方陣能進行奇異值分解

B.只有非奇異矩陣能進行奇異值分解

C.任意矩陣都能進行奇異值分解

D.對稱矩陣的奇異值就是其特征值

6.簡述主成分分析的基本原理。

7.簡述奇異值分解的基本原理。

第十章聚類

1.歐氏距離是閔可夫斯基距離階為(C)的特殊情況

A.0.5

B.1

C.2

D.oo

2.在層次聚類中(C)

A.需要用戶預先設(shè)定聚類的個數(shù)

B.需要用戶預先設(shè)定聚類個數(shù)的范圍

C.對于N個數(shù)據(jù)點,可形成1到N個簇

D.對于N個數(shù)據(jù)點,可形成1到N/2個簇

3.關(guān)于K-Means算法的表述不正確的是(B)

A.算法開始時,K-Means算法需要指定質(zhì)心

B.K-Means算法的效果不受初始質(zhì)心選擇的影響

C.K-Means算法需要計算樣本與質(zhì)心之間的距離

D.K-means屬于無監(jiān)督學習

4.K-Medoids聚類與K-Means聚類最大的區(qū)別在于(A)

A.中心點的選取規(guī)則

B.距離的計算方法

C.聚類效果

D.應(yīng)用層面

5.DBSCAN算法屬于(D)

A.劃分聚類

B.層次聚類

C.完全聚類

D.不完全聚類

6.不同的聚類方法分別適用于什么樣的場合,請簡要分析。

7.試分析K-Means聚類算法收斂的原因。

第十一章神經(jīng)網(wǎng)絡(luò)與深度學習

L下列關(guān)于標準神經(jīng)元模型的說法錯誤的是(A)

A.具有多個輸入端,每個輸入端具有相同的權(quán)重

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論