2021中國大學(xué)MOOC機器學(xué)習(xí)(溫州大學(xué))中國大學(xué)MOOC滿分章節(jié)測試答案_第1頁
2021中國大學(xué)MOOC機器學(xué)習(xí)(溫州大學(xué))中國大學(xué)MOOC滿分章節(jié)測試答案_第2頁
2021中國大學(xué)MOOC機器學(xué)習(xí)(溫州大學(xué))中國大學(xué)MOOC滿分章節(jié)測試答案_第3頁
2021中國大學(xué)MOOC機器學(xué)習(xí)(溫州大學(xué))中國大學(xué)MOOC滿分章節(jié)測試答案_第4頁
2021中國大學(xué)MOOC機器學(xué)習(xí)(溫州大學(xué))中國大學(xué)MOOC滿分章節(jié)測試答案_第5頁
已閱讀5頁,還剩34頁未讀 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認(rèn)領(lǐng)

文檔簡介

2021中國大學(xué)MOOC機器學(xué)習(xí)(溫州大學(xué))最新中國大學(xué)MOOC滿分章節(jié)測試

圣室

引言引言課后測試

1、問題:哪一個是機器學(xué)習(xí)的合理定義?

選項:

A:機器學(xué)習(xí)從標(biāo)記的數(shù)據(jù)中學(xué)習(xí)

B:機器學(xué)習(xí)能使計算機能夠在沒有明確編程的情況下學(xué)習(xí)

C:機器學(xué)習(xí)是計算機編程的科學(xué)

D:機器學(xué)習(xí)是允許機器人智能行動的領(lǐng)域

答案:【機器學(xué)習(xí)能使計算機能夠在沒有明確編程的情況下學(xué)習(xí)】

2、問題:一個計算機程序從經(jīng)驗E中學(xué)習(xí)任務(wù)T?并用P來衡量表現(xiàn)。并且?T的表現(xiàn)P隨著經(jīng)驗E的增加而提高。假設(shè)我們給一個學(xué)習(xí)算法輸

入了很多歷史天氣的數(shù)據(jù)?讓它學(xué)會預(yù)測天氣。什么是P的合理選擇?

選項:

A:計算大量歷史氣象數(shù)據(jù)的過程

B:正確預(yù)測未來日期天氣的概率

C:天氣預(yù)報任務(wù)

D:以上都不

答案:【正確預(yù)測未來曰期天氣的概率】

3、問題:回歸問題和分類問題的區(qū)別是什么?

選項:

A:回歸問題有標(biāo)簽?分類問題沒有

B:回歸問題輸出值是離散的,分類問題輸出值是連續(xù)的

C:回歸問題輸出值是連續(xù)的?分類問題輸出值是離散的

D:回歸問題與分類問題在輸入屬性值上要求不同

答案:【回歸問題輸出值是連續(xù)的,分類問題輸出值是離散的】

4、問題:以下關(guān)于特征選擇的說法正確的是?

選項:

A:選擇的特征越多越好

B:選擇的特征越少越好

C:選擇的特征需盡可能反映不同事物之間的差異

D:以上說法均不對

答案:【選擇的特征需盡可能反映不同事物之間的差異】

5、問題:一個包含n類的多分類問題?若采用一對剩余的方法,需要拆分成多少次?

選項:

A:1

B:n-1

C:n

D:n+1

答案:【n-1】

6、問題:機器學(xué)習(xí)方法傳統(tǒng)上可以分為()類。

選項:

A:3

B:4

C:7

D:2

答案:【3】

7、問題:哪些機器學(xué)習(xí)模型經(jīng)過訓(xùn)練?能夠根據(jù)其行為獲得的獎勵和反饋做出一系列決策?選

項:

A:監(jiān)督學(xué)習(xí)

B:無監(jiān)督學(xué)習(xí)

C:強化學(xué)習(xí)

D:以上全部

答案:【強化學(xué)習(xí)】

8、問題:機器學(xué)習(xí)這個術(shù)語是由()定義的?

選項:

AJamesGosling

B:ArthurSamuel

C:GuidovanRossum

D:以上都不是

答案:【ArthurSamuel】

9、問題:哪種開發(fā)語言最適合機器學(xué)習(xí)?()

選項:

A:C

BJava

C:Python

D:HTML

答案:[Python]

10、問題:()是機器學(xué)習(xí)的一部分,與神經(jīng)網(wǎng)絡(luò)一起工作。

選項:

A:人工智能

B:深度學(xué)習(xí)

C:A和B

D:以上都不是

答案:【深度學(xué)習(xí)】

11、問題:()是可用于標(biāo)記數(shù)據(jù)的機器學(xué)習(xí)算法。

選項:

A:回歸算法

B:聚類算法

C:關(guān)聯(lián)規(guī)則算法

D:以上都不是

答案:【回歸算法】

12、問題:谷歌新聞每天收集非常多的新聞,并運用()方法再將這些新聞分組,組成若干類有關(guān)聯(lián)的新聞。于是,搜索時同一組新聞事件往往

隸屬同一主題的?所以顯示到一起。

選項:

A:回歸

B:分類

C:聚類

D:關(guān)聯(lián)規(guī)則

答案:【聚類】

13、問題:下列哪些學(xué)習(xí)問題不屬于監(jiān)督學(xué)習(xí)?()

選項:

A:聚類

B:降維

C:分類

D:回歸

答案:【聚類;

降維】

14、問題:下列哪些學(xué)習(xí)問題不屬于監(jiān)督學(xué)習(xí)?()

選項:

A:回歸

B:分類

C:聚類

D:關(guān)聯(lián)規(guī)則

答案:【聚類;

關(guān)聯(lián)規(guī)則】

15、問題:機器學(xué)習(xí)的方法由()等幾個要素構(gòu)成。

選項:

A:模型

B:損失函數(shù)

C:優(yōu)化算法

D:模型評估指標(biāo)

答案:【模型;

損失函數(shù);

優(yōu)化算法;

模型評估指標(biāo)】

16、問題:對于非概率模型而言?可按照判別函數(shù)線性與否分成線性模型與非線性模型。下面哪些模型屬于線性模型?選

項:

A:K-means

B:k近鄰

C:感知機

D:AdaBoost

答案:【K-means;

k近鄰;

感知機】

17、問題:樸素貝葉斯屬于概率模型。

選項:

A:正確

B:錯誤

答案:【正確】

18、問題:根據(jù)腫瘤的體積、患者的年齡來判斷良性或惡性?這是一個回歸問題。

選項:

A:正確

B:錯誤

答案:【錯誤】

19、問題:大部分的機器學(xué)習(xí)工程中?數(shù)據(jù)搜集、數(shù)據(jù)清洗、特征工程這三個步驟絕大部分時間,而數(shù)據(jù)建模?占總時間比較少。選

項:

A:正確

B:錯誤

答案:【正確】

20、問題:已知你朋友的信息,比如經(jīng)常發(fā)email的聯(lián)系人,或是你微博的好友、微信的朋友圈,我們可運用聚類方法自動地給朋友進行分組,

做到讓每組里的人們彼此都熟識。

選項:

A:正確

B:錯誤

答案:【正確】

邏輯回歸邏輯回歸課后測驗

1、問題:一監(jiān)獄人臉識別準(zhǔn)入系統(tǒng)用來識別待進入人員的身份,此系統(tǒng)一共包括識別4種不同的人員:獄警,小偷?送餐員?其他。下面哪種

學(xué)習(xí)方法最適合此種應(yīng)用需求:

選項:

A:二分類問題

B:多分類問題

C:回歸問題

D:聚類問題

答案:【多分類問題】

2、問題:以下關(guān)于分類問題的說法錯誤的是?

選項:

A:分類屬于監(jiān)督學(xué)習(xí)

B:分類問題輸入屬性必須是離散的

C:多分類問題可以被拆分為多個二分類問題

D:回歸問題在一定條件下可被轉(zhuǎn)化為多分類問題

答案:【分類問題輸入屬性必須是離散的】

3、問題:以下關(guān)于邏輯回歸與線性回歸問題的描述錯誤的是()

選項:

A:邏輯回歸用于處理分類問題?線性回歸用于處理回歸問題

B:線性回歸要求輸入輸出值呈線性關(guān)系,邏輯回歸不要求

C:邏輯回歸一般要求變量服從正態(tài)分布,線性回歸一般不要求

D:線性回歸計算方法一般是最小二乘法,邏輯回歸的參數(shù)計算方法是似然估計法。答

案:【邏輯回歸一般要求變量服從正態(tài)分布?線性回歸一般不要求】

4、問題:以下關(guān)于sigmoid函數(shù)的優(yōu)點說法錯誤的是?

選項:

A:函數(shù)處處連續(xù),便于求導(dǎo)

B:可以用于處理二分類問題

C:在深層次神經(jīng)網(wǎng)絡(luò)反饋傳輸中,不易出現(xiàn)梯度消失

D:可以壓縮數(shù)據(jù)值到。1]之間,便于后續(xù)處理

答案:【在深層次神經(jīng)網(wǎng)絡(luò)反饋傳輸中,不易出現(xiàn)梯度消失】

5、問題:邏輯回歸的損失函數(shù)是哪個?

選項:

A:MSE

B:交叉熠(Cross-Entropy)損失函數(shù)

C:MAE

D:RMSE

答案:【交叉婚(Cross-Entropy)損失函數(shù)】

6'問題:下面哪一項不是Sigmoid的特點?

選項:

A:當(dāng)o(z)大于等于0.5時,預(yù)測y=l

B:當(dāng)。⑵小于0.5時?預(yù)測y=0

C:當(dāng)o(z)小于0.5時?預(yù)測y=-l

D:o(z)的范圍為(0,1)

答案:【當(dāng)。⑵小于0.5時,預(yù)測

7、問題:下列哪一項不是邏輯回歸的優(yōu)點?

選項:

A:處理非線性數(shù)據(jù)較容易

B:模型形式簡單

C:資源占用少

D:可解釋性好

答案:【處理非線性數(shù)據(jù)較容易】

8'問題:假設(shè)有三類數(shù)據(jù),用OVR方法需要分類幾次才能完成?

選項:

A:1

B:2

C:3

D:4

答案:【2】

9、問題:以下哪些不是二分類問題?

選項:

A:根據(jù)腫瘤的體積、患者的年齡來判斷良性或惡性?

B:或者根據(jù)用戶的年齡、職業(yè)、存款數(shù)量來判斷信用卡是否會違約?

C:身高1.85m?體重100kg的男人穿什么尺碼的T恤?

D:根據(jù)一個人的身高和體重判斷他(她)的性別。

答案:【身高1.85m?體重100kg的男人穿什么尺碼的T恤?】

10、問題:邏輯回歸通常采用哪種正則化方式?

選項:

A:ElasticNet

B:L1正則化

C:L2正則化

DQropout正則化

答案:【L2正則化】

11、問題:假設(shè)使用邏輯回歸進行多類別分類?使用OVR分類法。下列說法正確的是?

選項:

A:對于n類別,需要訓(xùn)練n個模型

B:對于n類別?需要訓(xùn)練n-1個模型

C:對于n類別?只需要訓(xùn)練1個模型

D:以上說法都不對

答案:【對于n類別,需要訓(xùn)練n個模型】

12、問題:你正在訓(xùn)練一個分類邏輯回歸模型。以下哪項陳述是正確的?選出所有正確項選

項:A:將

正則化引入到模型中?總是能在訓(xùn)練集上獲得相同或更好的性能

B:在模型中添加許多新特性有助于防止訓(xùn)練集過度擬合

C:將正則化引入到模型中,對于訓(xùn)練集中沒有的樣本,總是可以獲得相同或更好的性能

D:向模型中添加新特征總是會在訓(xùn)練集上獲得相同或更好的性能

答案:【向模型中添加新特征總是會在訓(xùn)練集上獲得相同或更好的性能】

13、問題:以下哪項陳述是正確的?選出所有正確項()

選項:

A:在構(gòu)建學(xué)習(xí)算法的第一個版本之前?花大量時間收集大量數(shù)據(jù)是一個好主意。

B:邏輯回歸使用了Sigmoid激活函數(shù)C:

使用一個非常大的訓(xùn)練集使得模型不太可能過擬合訓(xùn)練數(shù)據(jù)。D:

如果您的模型擬合訓(xùn)練集?那么獲取更多數(shù)據(jù)可能會有幫助。答

案:【邏輯回歸使用了Sigmoid激活函數(shù);

使用一個非常大的訓(xùn)練集使得模型不太可能過擬合訓(xùn)練數(shù)據(jù)。】

14、問題:下面哪些是分類算法?

選項:

A:根據(jù)腫瘤的體積、患者的年齡來判斷良性或惡性?

B:根據(jù)用戶的年齡、職業(yè)、存款數(shù)量來判斷信用卡是否會違約?

C:身高1.85m,體重100kg的男人穿什么尺碼的丁恤?

D:根據(jù)房屋大小、衛(wèi)生間數(shù)量等特征預(yù)估房價

答案:【根據(jù)腫瘤的體積、患者的年齡來判斷良性或惡性?;

根據(jù)用戶的年齡、職業(yè)、存款數(shù)量來判斷信用卡是否會違約?;

身高1.85m,體重100kg的男人穿什么尺碼的T恤?】

15、問題:邏輯回歸的激活函數(shù)是Sigmoid。

選項:A:

正確

B:錯誤

答案:【正確】

16、問題:邏輯回歸分類的精度不夠高?因此在業(yè)界很少用到這個算法選

項:

A:正確

B:錯誤

答案:【錯誤】

17、問題:Sigmoid函數(shù)的范圍是(-1-1)

選項:

A:正確

B:錯誤

答案:【錯誤】

18、問題:邏輯回歸的特征一定是離散的。

選項:

A:正確

B:錯誤

答案:【錯誤】

19'問題:邏輯回歸算法資源占用小?尤其是內(nèi)存。

選項:A:正確

B:錯誤

答案:【正確】

20、問題:邏輯回歸的損失函數(shù)是交叉嫡損失

選項:

A:正確

B:錯誤

答案:【正確】

回歸回歸課后測試

1、問題:以下哪組變量之間存在線性回歸關(guān)系?

選項:

A:學(xué)生的性別與他的成績

B:兒子的身高與父親的身高

C:正方形的邊長與面積

D:正三角形的邊長與周長

答案:【正三角形的邊長與周長】

2、問題:回歸問題和分類問題的區(qū)別是?

選項:

A:回歸問題有標(biāo)簽?分類問題沒有B:

回歸問題輸出值是離散的?分類問題輸出值是連續(xù)的

C:回歸問題輸出值是連續(xù)的?分類問題輸出值是離散的

D:回歸問題與分類問題在輸入屬性值上要求不同

答案:【回歸問題輸出值是連續(xù)的?分類問題輸出值是離散的】

3、問題:以下說法錯誤的是?

選項:

A:殘差是預(yù)測值與真實值之間的差值

B:損失函數(shù)越小?模型訓(xùn)練得一定越好

C:正則項的目的是為了避免模型過擬合

D:最小二乘法不需要選擇學(xué)習(xí)率

答案:【損失函數(shù)越小,模型訓(xùn)練得一定越好】

4、問題:哪些算法不需要數(shù)據(jù)歸一化?

選項:

A:kNN

B:k-means

C:SVM

D:決策樹

答案:【決策樹】

5'問題:以下哪些方法不能用于處理欠擬合?

選項:

A:增大正則化系數(shù)

B:增加新的特征

(::增加模型復(fù)雜度

D:對特征進行變換?使用組合特征或高維特征

答案:【增大正則化系數(shù)】

6、問題:以下哪些方法不能用于處理過擬合?

選項:

A:對數(shù)據(jù)進行清洗

B:增大訓(xùn)練數(shù)據(jù)的量

C:利用正則化技術(shù)

D:增加數(shù)據(jù)屬性的復(fù)雜度

答案:【增加數(shù)據(jù)屬性的復(fù)雜度】

7、問題:下列關(guān)于線性回歸分析中的殘差(Residuals)說法正確的是?

選項:

A:殘差均值總是為零

B:殘差均值總是小于零

C:殘差均值總是大于零

D:以上說法都不對

答案:【殘差均值總是為零】

8'問題:為了觀察測試Y與X之間的線性關(guān)系,X是連續(xù)變量,使用下列哪種圖形比較適合?

選項:

A:散點圖

B:柱形圖

C:直方圖

D:以上都不對

答案:【散點圖】

9、問題:假如你在訓(xùn)練一個線性回歸模型,則:1.如果數(shù)據(jù)量較少?容易發(fā)生過擬合。2.如果假設(shè)空間較小,容易發(fā)生過擬合。父于這兩句

話,下列說法正確的是?

選項:

A:1和2都錯誤

B:1正確?2錯誤

C:1錯誤-2正確

D:1和2都正確

答案:【1正確,2錯誤】

10、問題:關(guān)于特征選擇?下列對Ridge回歸和Lasso回歸說法正確的是?

選項:

A:Ridge回歸適用于特征選擇

B:Lasso回歸適用于特征選擇

C:兩個都適用于特征選擇

D:以上說法都不對

答案:【Lasso回歸適用于特征選擇】

11'問題:構(gòu)建一個最簡單的線性回歸模型需要幾個系數(shù)(只有一個特征)?

選項:

A:1個

B:2個

C:3個

D:4個

答案:【2個】

12、問題:向量x=[1234-9⑼的L1范數(shù)是多少?

選項:

A:1

B:19

C:6

D:

答案:【19】

13'問題:以下哪些是使用數(shù)據(jù)規(guī)范化(特征縮放)的原因?

選項:

A:它通過降低梯度下降的每次迭代的計算成本來加速梯度下降

B:它通過減少迭代次數(shù)來獲得一個好的解,從而加快了梯度下降的速度

C:它不能防止梯度下降陷入局部最優(yōu)

D:它防止矩陣不可逆(奇異/退化)

答案:【它通過減少迭代次數(shù)來獲得一個好的解?從而加快了梯度下降的速度;它

不能防止梯度下降陷入局部最優(yōu)】

14、問題:線性回歸中,我們可以使用最小二乘法來求解系數(shù),下列關(guān)于最小二乘法說法正確的是?()選

項:

A:只適用于線性模型,不適合邏輯回歸模型等其他模型

B:不需要選擇學(xué)習(xí)率

C:當(dāng)特征數(shù)量很多的時候?運算速度會很慢

D:不需要迭代訓(xùn)練

答案:【只適用于線性模型,不適合邏輯回歸模型等其他模型;

不需要選擇學(xué)習(xí)率;

當(dāng)特征數(shù)量很多的時候,運算速度會很慢;

不需要迭代訓(xùn)練】

15、問題:欠擬合的處理主要有哪些方式:()

選項:

A:增加模型復(fù)雜度

B:減小正則化系數(shù)

C:增大正則化系數(shù)

D:添加新特征

答案:【增加模型復(fù)雜度;

減小正則化系數(shù);

添加新特征】

16'問題:假如使用一個較復(fù)雜的回歸模型來擬合樣本數(shù)據(jù)?使用Ridge回歸?調(diào)試正則化參數(shù),來降低模型復(fù)雜度?若正則化系數(shù)較大

時,關(guān)于偏差(bias)和方差(variance)-下列說法正確的是?()

選項:

A:偏差減小

B:偏差增大

C:方差減小

D:方差增大

答案:【偏差增大;

方差減小】

17'問題:如果兩個變量相關(guān),那么它們一定是線性關(guān)系。選

項:

A:正確

B:錯誤

答案:【錯誤】

18'問題:隨機梯度下降,每次迭代時候?使用一個樣本。選

項:

A:正確

B:錯誤

答案:【正確】

19、問題:L2正則化往往用于防止過擬合?而L1正則化往往用于特征選擇。

選項:

A:正確

B:錯誤

答案:【正確】

20、問題:過擬合的處理可以通過減小正則化系數(shù)。

選項:

A:正確

B:錯誤

答案:【錯誤】

樸素貝葉斯樸素貝葉斯課后測驗

1、問題:假設(shè)會開車的本科生比例是15%?會開車的研究生比例是23%。若在某大學(xué)研究生占學(xué)生比例是20%?則會開車的學(xué)生是研究生

的概率是多少?

選項:

A:80%

B:16.6%

C:23%

D:15%

答案:【16.6%]

2、問題:下列關(guān)于樸素貝葉斯的特點說法錯誤的是()

選項:

A:樸素貝葉斯模型發(fā)源于古典數(shù)學(xué)理論,數(shù)學(xué)基礎(chǔ)堅實

B:樸素貝葉斯模型無需假設(shè)特征條件獨立

C:樸素貝葉斯處理過程簡單-分類速度快

D:樸素貝葉斯對小規(guī)模數(shù)據(jù)表現(xiàn)較好

答案:【樸素貝葉斯模型無需假設(shè)特征條件獨立】

3、問題:以下算法不屬于生成模型()

選項:

A:樸素貝葉斯模型

B:混合高斯模型

C:隱馬爾科夫模型

D:支持向量機

答案:【支持向量機】

4、問題:關(guān)于拉普拉斯平滑說法正確的是()

選項:

A:避免了出現(xiàn)概率為0的情況

B:加上拉普拉斯平滑有助于提高學(xué)習(xí)性能

C:會使得最終結(jié)果可能大于1

D:以上說法都不對

答案:【避免了出現(xiàn)概率為0的情況】

5'問題:假設(shè)X和Y都服從正態(tài)分布?那么P(X<5,Y<0)就是一個(),表示X<5,Y<0兩個條件同時成立的概率,即兩個事件共同發(fā)生的概率

選項:

A:先驗概率

B:后驗概率

C:聯(lián)合概率

D:以上說法都不對

答案:【聯(lián)合概率】

6'問題:以下算法屬于判別模型的是()

選項:

A:樸素貝葉斯模型

B:深度信念網(wǎng)絡(luò)

C:隱馬爾科夫模型

D:線性回歸

答案:【線性回歸】

7、問題:樸素貝葉斯的優(yōu)點不包括()

選項:

A:算法邏輯簡單,易于實現(xiàn)

B:分類過程中時空開銷小

C:對缺失數(shù)據(jù)不太敏感,算法也比較簡單,常用于文本分類

D:樸素貝葉斯模型對輸入數(shù)據(jù)的表達形式很敏感

答案:【樸素貝葉斯模型對輸入數(shù)據(jù)的表達形式很敏感】

8、問題:市場上某商品來自兩個工廠?它們市場占有率分別為60%和40%有兩人各自買一件,則買到的來自不同工廠之概率為()。選

項:

A:0.5

B:0.24

C:0.48

D:0.3

答案:【0.48]

9'問題:以A表示事件”甲種產(chǎn)品暢銷?乙種產(chǎn)品滯銷”?則其對立事件A為()

選項:

A:甲種產(chǎn)品滯銷?乙種產(chǎn)品暢銷

B:甲-乙兩種產(chǎn)品均暢銷

C:甲種產(chǎn)品滯銷

D:甲種產(chǎn)品滯銷或乙種產(chǎn)品暢銷

答案:【甲種產(chǎn)品滯銷或乙種產(chǎn)品暢銷】

10、問題:11.關(guān)于樸素貝葉斯?下列說法錯誤的是:()

選項:

A:它是一個分類算法

B:樸素的意義在于它的一個天真的假設(shè):所有特征之間是相互獨立的

C:它實際上是將多條件下的條件概率轉(zhuǎn)換成了單一條件下的條件概率,簡化了計算

D:樸素貝葉斯不需要使用聯(lián)合概率

答案:【樸素貝葉斯不需要使用聯(lián)合概率】

11'問題:擲二枚骰子?事件A為出現(xiàn)的點數(shù)之和等于3的概率為()

選項:

A:l/ll

B:l/18

C:l/6

D渚B不對

答案:【1/18】

12、問題:公司里有一個人穿了運動鞋?推測是男還是女?已知公司里男性30人?女性70人?男性穿運動鞋的有25人,穿拖鞋的有5人

女性穿運動鞋的有40人,穿高跟鞋的有30人。則以下哪項計算錯誤()?

選項:

A:p(男|運動鞋)=0.25

B:p(女|運動鞋)=0.4

C:p(運動鞋|男性)=25/30

D:p(運動鞋|女性)=0.4

答案:【p(運動鞋|女性)=0.4】

13、問題:根據(jù)以往經(jīng)驗和分析得到的概率。在這里?我們用P(Y)來代表在沒有訓(xùn)練數(shù)據(jù)前假設(shè)Y擁有的初始概率,因此稱其為Y的后驗概

率,它反映了我們所擁有的關(guān)于Y的背景知識。

選項:

A:正確

B:錯誤

答案:【錯誤】

14'問題:樸素貝葉斯模型假設(shè)屬性之間相互獨立,這個假設(shè)在實際應(yīng)用中往往是不成立的,在屬性相關(guān)性較小時?樸素貝葉斯性能良好。

而在屬性個數(shù)比較多或者屬性之間相關(guān)性較大時,分類效果不好。選

項:

A:正確

B:錯誤

答案:【正確】

15、問題:樸素貝葉斯對缺失數(shù)據(jù)較敏感。

選項:

A:正確

B:錯誤

答案:【正確】

16、問題:判別模型所學(xué)內(nèi)容是決策邊界。

選項:

A:正確

B:錯誤

答案:【正確】

17、問題:邏輯回歸是生成模型,樸素貝葉斯是判別模型選

項:

A:正確

B:錯誤

答案:【錯誤】

18、問題:邏輯回歸和樸素貝葉斯都有對屬性特征獨立的要求選

項:

A:正確

B:錯誤

答案:【錯誤】

19'問題:樸素貝葉斯法的基本假設(shè)是條件獨立性。

選項:

A:正確

B:錯誤

答案:【正確】

20、問題:樸素貝葉斯適用于小規(guī)模數(shù)據(jù)集?邏輯回歸適用于大規(guī)模數(shù)據(jù)集。

選項:

A:正確

B:錯誤

答案:【錯誤】

機器學(xué)習(xí)實踐機器學(xué)習(xí)實踐課后測驗

1、問題:以下關(guān)于訓(xùn)練集、驗證集和測試集說法不正確的是()。

選項:

A:測試集是純粹是用于測試模型泛化能力

B:訓(xùn)練集是用來訓(xùn)練以及評估模型性能

C:驗證集用于調(diào)整模型參數(shù)

D:以上說法都不對

答案:【訓(xùn)練集是用來訓(xùn)練以及評估模型性能】

2、問題:當(dāng)數(shù)據(jù)分布不平衡時?我們可采取的措施不包括()。

選項:

A:對數(shù)據(jù)分布較少的類別過采樣

B:對數(shù)據(jù)分布較多的類別欠采樣

C:對數(shù)據(jù)分布較多的類別賦予更大的權(quán)重

D:對數(shù)據(jù)分布較少的類別賦予更大的權(quán)重

答案:【對數(shù)據(jù)分布較多的類別賦予更大的權(quán)重】

3、問題:假設(shè)有100張照片,其中?貓的照片有60張,狗的照片是40張。識別結(jié)果:TP=40,FN=20-FP=10-TN=30?則可以得到:

()。

選項:

A:Accuracy=0.8

B:Precision=0.8

C:Recall=0.8

D:以上都不對

答案:【Precision=0.8】

4、問題:關(guān)于數(shù)據(jù)規(guī)范化,下列說法中錯誤的是()。

選項:

A:包含標(biāo)準(zhǔn)化和歸一化

B:標(biāo)準(zhǔn)化在任何場景下受異常值的影響都很小

C:歸一化利用了樣本中的最大值和最小值

D:標(biāo)準(zhǔn)化實際上是將數(shù)據(jù)在樣本的標(biāo)準(zhǔn)差上做了等比例的縮放操作答

案:【標(biāo)準(zhǔn)化在任何場景下受異常值的影響都很小】

5、問題:下列哪種方法可以用來緩解過擬合的產(chǎn)生:()。

選項:

A:增加更多的特征

B:正則化

C:增加模型的復(fù)雜度

D:以上都是

答案:【正則化】

6、問題:以下關(guān)于ROC和PR曲線說法不正確的是()。

選項:

A:ROC曲線兼顧正例與負(fù)例,PR曲線完全聚焦于正例

B:如果想測試不同類別分布下分類器性能的影響?ROC曲線更為適合

CROC曲線不會隨著類別分布的改變而改變

D:類別不平衡問題中,ROC曲線比PR曲線估計效果要差

答案:【類別不平衡問題中,ROC曲線比PR曲線估計效果要差】

7、問題:以下關(guān)于偏差(Bias)和方差(Variance)說法正確的是()。

選項:

A:方差描述的是預(yù)測值與真實值之間的差別

B:偏差描述的是預(yù)測值的變化范圍

C:獲取更多的訓(xùn)練數(shù)據(jù)可解決高方差的問題

D:獲取更多的特征能解決高方差的問題

答案:【獲取更多的訓(xùn)練數(shù)據(jù)可解決高方差的問題】

8、問題:關(guān)于L1正則化和L2正則化說法錯誤的是()。

選項:

A:L1正則化的功能是使權(quán)重稀疏

B:L2正則化的功能是防止過擬合

C:L1正則化比L2正則化使用更廣泛

D:L1正則化無法有效減低數(shù)據(jù)存儲量

答案:【L1正則化比L2正則化使用更廣泛】

9、問題:隨著訓(xùn)練樣本的數(shù)量越來越大,則該數(shù)據(jù)訓(xùn)練的模型將具有:()。選

項:

A:低方差

B:高方差

C:相同方差

D:無法判斷

答案:【低方差】

10、問題:隨著訓(xùn)練樣本的數(shù)量越來越大,則該數(shù)據(jù)訓(xùn)練的模型將具有:()。選

項:

A:低偏差

B:高偏差

C:相同偏差

D:無法判斷

答案:【相同偏差】

11、問題唉于特征選擇?下列對Ridge回歸和Lasso回歸的說法正確的是:()。

選項:

A:Ridge回歸適用于特征選擇

B:Lass?;貧w適用于特征選擇

C:兩個都適用于特征選擇

D:以上說法都不對

答案:【Lass。回歸適用于特征選擇】

12、問題:一個正負(fù)樣本不平衡問題(正樣本99%?負(fù)樣本1%)。假如在這個非平衡的數(shù)據(jù)集上建立一個模型,得到訓(xùn)練樣本的正確率是

99%?則下列說法正確的是?()

選項:

A:模型正確率很高?不需要優(yōu)化模型了

B:模型正確率并不能反映模型的真實效果C:

無法對模型做出好壞評價

D:以上說法都不對

答案:【模型正確率并不能反映模型的真實效果】

13、問題:以下關(guān)于交叉驗證說法正確的是()。

選項:

A:交叉驗證可利用模型選擇避免過擬合的情況

B:交叉驗證可對模型性能合理評估

C:交叉驗證大大增加了計算量

D:以上說法都不對

答案:【交叉驗證可利用模型選擇避免過擬合的情況;

交叉驗證可對模型性能合理評估;

交叉驗證大大增加了計算量]

14、問題:評價指標(biāo)中,精確率(Precision)的計算需要哪些數(shù)值()。

選項:

A:TP

B:TN

C:FP

D:FN

答案:【TP;

FP]

15'問題:評價指標(biāo)中?召回率(Recall)的計算需要哪些數(shù)值()。

選項:

A:TP

B:TN

C:FP

D:FN

答案:【TP;

FN]

16、問題:評估完模型之后,發(fā)現(xiàn)模型存在高偏差(highbias)?應(yīng)該如何解決?()

選項:

A:減少模型的特征數(shù)量

B:增加模型的特征數(shù)量

C:增加樣本數(shù)量

D:嘗試減少正則化系數(shù)

答案:【增加模型的特征數(shù)量;

嘗試減少正則化系數(shù)】

17、問題:特征空間越大?過擬合的可能性越大。

選項:

A:正確

B:錯誤

答案:【正確】

18、問題:L2正則化得到的解更加稀疏。

選項:

A:正確

B:錯誤

答案:【錯誤】

19、問題:SMOTE算法是用了上采樣的方法。

選項:

A:正確

B:錯誤

答案:【正確】

20、問題:100萬條數(shù)據(jù)劃分訓(xùn)練集、驗證集、測試集,數(shù)據(jù)可以這樣劃分:98%,1%?1%。

選項:

A:正確

B:錯誤

答案:【正確】

KNN算法KNN算法課后測驗

1、問題:下列哪個距離度量不在KNN算法中體現(xiàn):()。

選項:

A:切比雪夫距離

B:歐氏距離

C:余弦相似度

D:曼哈頓距離

答案:【余弦相似度】

2、問題:下列選項中,關(guān)于KNN算法說法不正確是:()。

選項:

A:能找出與待預(yù)測樣本相近的K個樣本

B:默認(rèn)使用歐氏距離度量

C:實現(xiàn)過程相對簡單,但是可解釋性不強

D:效率很高

答案:【效率很高】

3、問題:以下距離度量方法中,在城市道路里?要從一個十字路口開車到另外一個十字路口的距離是:()。選項:

A:夾角余弦

B:切比雪夫距離

C:曼哈頓距離

D:歐氏距離

答案:【曼哈頓距離】

4、問題:以下關(guān)于KD樹的說法錯誤的是()。

選項:

A:KD樹是一種對k維空間的數(shù)據(jù)進行存儲以便于快速檢索的樹形數(shù)據(jù)結(jié)構(gòu)

B:KD樹主要用于多維空間關(guān)鍵數(shù)據(jù)的檢索

CKD樹節(jié)點與k維中垂直與超平面的那一維有關(guān)

D:所有x值小于指定值的節(jié)點會出現(xiàn)在右子樹

答案:【所有x值小于指定值的節(jié)點會出現(xiàn)在右子樹】

5、問題:利用KD樹進行搜索時?正確的方式是()。

選項:

A:查詢數(shù)據(jù)從子節(jié)點開始

B:若數(shù)據(jù)小于對應(yīng)節(jié)點中k維度的值,則訪問左節(jié)點

C:回溯過程是為了找距離較遠的點

D:回溯的判斷過程是從上往下進行的

答案:【若數(shù)據(jù)小于對應(yīng)節(jié)點中k維度的值?則訪問左節(jié)點】

6、問題似下哪項是KNN算法的缺點?()

選項:

A:低精度

B:對異常值不敏感

C:計算成本高

D:需要的內(nèi)存非常少

答案:【計算成本高】

7、問題:關(guān)于余弦相似度,不正確的是()。

選項:

A:余弦相似度的范圍為[-LU

B:余弦相似度的結(jié)果和向量的長度無關(guān)

C:余弦相似度為-1時候,兩個向量完全不相關(guān)

D:余弦相似度為1的時候,兩個向量完全相關(guān)

答案:【余弦相似度為-1時候,兩個向量完全不相關(guān)】

8'問題:KD樹(K-DimensionTree)的描述中,不正確的是()。

選項:

A:KD樹是二叉樹

B:KD樹可以用更高的效率來對空間進行劃分

C:KD樹的結(jié)構(gòu)非常適合尋找最近鄰居和碰撞檢測

D:KD樹切分時,從方差小的維度開始切分

答案:【KD樹切分時?從方差小的維度開始切分】

9、問題:假設(shè)有6個二維數(shù)據(jù)點:D={(2,3),(5,7),(9,6),(4,5),(6,4),(7,2)},第一次切分時候,切分線為()。選

項:

A:x=5

B:x=6

C:y=5

D:y=6

答案:【x=6】

10、問題:KNN算法在什么情況下效果較好?()

選項:

A:樣本較多但典型性不好

B:樣本較少但典型性好

C:樣本呈團狀分布

D:樣本呈鏈狀分布

答案:【樣本較少但典型性好】

11、問題:關(guān)于KNN算法的描述,不正確的是()。

選項:

A:可以用于分類

B:可以用于回歸

C:距離度量的方式通常用曼哈頓距離

D:K值的選擇一般選擇一個較小的值

答案:【距離度量的方式通常用曼哈頓距離】

12、問題:兩個向量的長度分別為1和2,兩者之間的夾角為60度,則以下選項錯誤的是()。

選項:

A:余弦相似度為0.5

B:余弦相似度為正

C:余弦相似度沒法計算,因為沒給出具體坐標(biāo)值

D:余弦相似度的值與向量的長度無關(guān)?只和向量之間的夾角有關(guān)答

案:【余弦相似度沒法計算?因為沒給出具體坐標(biāo)值】

13、問題:影響KNN算法效果的主要因素包括()。

選項:

A:K的值

B:距離度量方式

C:決策規(guī)則

D:最鄰近數(shù)據(jù)的距離

答案:【K的值;

距離度量方式;

決策規(guī)則】

14、問題:以下關(guān)于KNN說法正確的是(多選)()。

選項:

A:計算復(fù)雜度低

B:對數(shù)據(jù)沒有假設(shè)

C:對異常值不敏感

D:可解釋性好

答案:【計算復(fù)雜度低;

對數(shù)據(jù)沒有假設(shè);

對異常值不敏感】

15、問題:閔可夫斯基距離中的p取1或2B寸的閔氏距離是最為常用的,以下哪項是正確的:()。

選項:

A:p取1時是曼哈頓距離

B:p取2時是歐氏距離

C:p取無窮時是切比雪夫距離

D:閔可夫斯基空間不同于牛頓力學(xué)的平坦空間

答案:【p取1時是曼哈頓距離;

p取2時是歐氏距離;

p取無窮時是切比雪夫距離;

閔可夫斯基空間不同于牛頓力學(xué)的平坦空間】

16、問題:KNN算法的缺點包括以下幾點?()

選項:

A:可解釋性差?無法給出決策樹那樣的規(guī)則

B:對訓(xùn)練數(shù)據(jù)依賴度特別大,當(dāng)樣本不平衡的時候,對少數(shù)類的預(yù)測準(zhǔn)確率低

C:對異常值敏感

D:計算復(fù)雜性高;空間復(fù)雜性高?尤其是特征數(shù)非常多的時候

答案:【可解釋性差?無法給出決策樹那樣的規(guī)則;

對訓(xùn)練數(shù)據(jù)依賴度特別大,當(dāng)樣本不平衡的時候,對少數(shù)類的預(yù)測準(zhǔn)確率低;

計算復(fù)雜性高;空間復(fù)雜性高?尤其是特征數(shù)非常多的時候】

17'問題:兩個向量的余弦相似度越接近1,說明兩者越相似。

選項:

A:正確

B:錯誤

答案:【正確】

18、問題:k近鄰法(k-Nea「estNeighbor,kNN)是一種比較成熟也是最簡單的機器學(xué)習(xí)算法?可以用于分類,但不能用于回歸方法。

選項:

A:正確

B:錯誤

答案:【錯誤】

19、問題:KNN沒有顯示的訓(xùn)練過程,它在訓(xùn)練階段只是把數(shù)據(jù)保存下來,訓(xùn)練時間開銷為0,等收到測試樣本后進行處理。選

項:

A:正確

B:錯誤

答案:【正確】

20、問題:KNN分類的時候?對新的樣本?根據(jù)其k個最近鄰的訓(xùn)練樣本的類別?通過多數(shù)表決等方式進行預(yù)測。選

項:

A:正確

B:錯誤

答案:【正確】

決策樹決策樹課后測驗

1、問題似下關(guān)于決策樹特點分析的說法錯誤的有()。

選項:

A:推理過程容易理解?計算簡單

B:算法考慮了數(shù)據(jù)屬性之間的相關(guān)性

C:算法自動忽略了對模型沒有貢獻的屬性變量

D:算法容易造成過擬合

答案:【算法考慮了數(shù)據(jù)屬性之間的相關(guān)性】

2、問題擬下關(guān)于決策樹原理介紹錯誤的有()。

選項:

A:決策樹算法屬于無監(jiān)督學(xué)習(xí)

B:決策樹算法本質(zhì)上是貪心算法

C:決策樹生成過程中需要用到分割法

D:決策樹決策過程從根節(jié)點開始

答案:【決策樹算法屬于無監(jiān)督學(xué)習(xí)】

3、問題:我們想要在大數(shù)據(jù)集上訓(xùn)練決策樹模型,為了使用較少的時間?可以:()。選

項:

A:增加樹的深度

B:增大學(xué)習(xí)率

C:減少樹的深度

D:減少樹的數(shù)量

答案:【減少樹的深度】

4'問題似下關(guān)于決策樹算法說法錯誤的是()。

選項:

A:ID3算法選擇信息增益最大的特征作為當(dāng)前決策節(jié)點

B:C4.5算法選擇信息增益率來選擇屬性

UC4.5算法不能用于處理不完整數(shù)據(jù)

D:CART算法選擇基尼系數(shù)來選擇屬性

答案:【C4.5算法不能用于處理不完整數(shù)據(jù)】

5、問題:以下關(guān)于剪枝操作說法正確的是()。

選項:A:CART

采用的是悲觀策略的預(yù)剪技

B:ID3沒有剪枝策略

UC4.5采用的是基于代價函數(shù)的后剪枝

D:以上說法都不對

答案:【ID3沒有剪枝策略】

6、問題:C4.5選擇屬性用的是()。

選項:

A:信息增益

B:信息增益率

C:交叉嫡

D:信息病

答案:【信息增益率】

7、問題:7.哪種決策樹沒有剪枝操作()。

選項:

A:C4.5

B:CART

C:ID3

D:以上都不對

答案:【ID3】

8、問題似下那種說法是錯誤的()。

選項:

A:信息增益=信息燧—條件嫡

B:一個系統(tǒng)越是混亂,隨機變量的不確定性就越大,信息嫡就越高

C:一個系統(tǒng)越是有序,信息嫡就越低

D:中國足球隊?wèi)?zhàn)勝巴西足球隊的信息嫡要小于中國乒乓球隊?wèi)?zhàn)勝巴西乒乓球隊的信息螭

答案:【中國足球隊?wèi)?zhàn)勝巴西足球隊的信息燧要小于中國乒乓球隊?wèi)?zhàn)勝巴西乒乓球隊的信息燧】

9、問題:ID3算法的缺點不包括()。

選項:

A:ID3沒有剪枝策略,容易過擬合

B:信息增益準(zhǔn)則對可取值數(shù)目較多的特征有所偏好,類似"編號"的特征其信息增益接近于1

C:既能用于處理離散分布的特征?也能用于連續(xù)分布的特征處理

D:沒有考慮缺失值

答案:【既能用于處理離散分布的特征?也能用于連續(xù)分布的特征處理】

10、問題:關(guān)于CART算法,錯誤的是()。

選項:

A:可以處理樣本不平衡問題

B:CART分類樹采用基尼系數(shù)的大小來度量特征的各個劃分點

C:CART算法既可以處理分類問題,也可以處理回歸問題

DCART算法采用信息增益率的大小來度量特征的各個劃分點

答案:【CART算法采用信息增益率的大小來度量特征的各個劃分點】

11、問題俟于C4.5算法?錯誤的是()。

選項:

A:C4.5算法采用基尼系數(shù)的大小來度量特征的各個劃分點

BC4.5算法可以處理非離散的數(shù)據(jù)

CC4.5算法引入悲觀剪枝策略進行后剪枝

D:C4.5算法最大的特點是克服了ID3對特征數(shù)目的偏重這一缺點

答案:【C4.5算法采用基尼系數(shù)的大小來度量特征的各個劃分點】

12、問題:ID3選擇屬性用的是()。

選項:A:

信息增益

B:信息增益率

C:交叉爆

D:信息嫡

答案:【信息增益】

13、問題:決策樹有哪些代表算法()。

選項:

A:CNN

B:C4.5

C:CART

D:ID3

答案:【C4.5;

CART;

ID3]

14、問題:以下那種算法需要對數(shù)據(jù)進行歸一化或者標(biāo)準(zhǔn)化()。

選項:A:邏輯

回歸

B:決策樹

C:KNN

D:線性回歸

答案:【邏輯回歸;

KNN;

線性回歸】

15、問題:關(guān)于剪枝,以下算法正確的是:()。

選項:

A:決策樹剪枝的基本策略有預(yù)剪枝和后剪枝

B:ID3算法沒有剪枝操作

C:剪枝是防止過擬合的手段

DC4.5算法沒有剪枝操作

答案:【決策樹剪枝的基本策略有預(yù)剪枝和后剪枝;

ID3算法沒有剪枝操作;

剪枝是防止過擬合的手段】

16、問題:決策樹的說法正確的是()。

選項:

A:它易于理解、可解釋性強

B:其可作為分類算法,也可用于回歸模型

UCART使用的是二叉樹

D:不能處理連續(xù)型特征

答案:【它易于理解'可解釋性強;

其可作為分類算法,也可用于回歸模型;

CART使用的是二叉樹】

17、問題:ID3算法的核心思想就是以信息增益來度量特征選擇,選擇信息增益最大的特征進行分裂。選

項:A:正

B:錯誤

答案:【正確】

18、問題:C4.5是通過代價復(fù)雜度剪枝。

選項:

A:正確

B:錯誤

答案:【錯誤】

19、問題:ID3算法只能用于處理離散分布的特征。

選項:

A:正確

B:錯誤

答案:【正確】

20、問題:ID3和C4.5和CART都只能用于分類問題,不能用于回歸問題。

選項:

A:正確

B:錯誤

答案:【錯誤】

集成學(xué)習(xí)集成學(xué)習(xí)課后測驗

1、問題:在隨機森林里,你生成了幾百顆樹(TLT2......Tn)?然后對這些樹的結(jié)果進行綜合?下面關(guān)于隨機森林中每顆樹的說法正確的

是?()

選項:

A:每棵樹是通過數(shù)據(jù)集的子集和特征的子集構(gòu)建的

B:每棵樹是通過所有的特征構(gòu)建的

C:每棵樹是通過所有的數(shù)據(jù)構(gòu)建的

D:以上都不對

答案:【每棵樹是通過數(shù)據(jù)集的子集和特征的子集構(gòu)建的】

2、問題:以下關(guān)于集成學(xué)習(xí)特性說法錯誤的是()。

選項:

A:集成學(xué)習(xí)需要各個弱分類器之間具備一定的差異性B:

弱分類器的錯誤率不能高于0.5

C:集成多個線性分類器也無法解決非線性分類問題

D:當(dāng)訓(xùn)練數(shù)據(jù)集較大時?可分為多個子集?分別進行訓(xùn)練分類器再合成

答案:【集成多個線性分類器也無法解決非線性分類問題】

3'問題似下關(guān)于隨機森林(RandomForest)說法正確的是()。

選項:

A:隨機森林由若干決策樹組成,決策樹之間存在關(guān)聯(lián)性

B:隨機森林學(xué)習(xí)過程分為選擇樣本、選擇特征、構(gòu)建決策樹、投票四個部分

C:隨機森林算法容易陷入過擬合

D:隨機森林構(gòu)建決策樹時,是無放回的選取訓(xùn)練數(shù)據(jù)

答案:【隨機森林學(xué)習(xí)過程分為選擇樣本、選擇特征、構(gòu)建決策樹、投票四個部分】

4、問題:以下關(guān)于AdaBoost算法說法正確的是()。

選項:

A:AdaBoost使用的損失函數(shù)是指數(shù)函數(shù)

B:在訓(xùn)練過程中?若某個樣本點已經(jīng)被準(zhǔn)確分類?則在構(gòu)造下一個訓(xùn)練集時,該樣本的權(quán)重會下降

C:在投票時,分類誤差小的弱分類器權(quán)重較小

D:以上說法都不對

答案:【AdaBoost使用的損失函數(shù)是指數(shù)函數(shù)】

5、問題:以下關(guān)于GBDT算法說法錯誤的是()。

選項:

A:GBDT是由多棵回歸樹組成

B:GBDT泛化能力較強

UGBDT使用的是放回采樣

D:GBDT需要使用剪枝操作

答案:【GBDT使用的是放回采樣】

6、問題:XGBoost算法說法錯誤的是()

選項:

A:XGBoost算法的目標(biāo)函數(shù)采用了二階泰勒展開

B:XGBoost算法的速度要比GBDT快

UXGBoost算法要求對數(shù)據(jù)進行歸一化或者標(biāo)準(zhǔn)化

D:XGBoost算法的效果通常優(yōu)于傳統(tǒng)的機器學(xué)習(xí)模型

答案:【XGBoost算法要求對數(shù)據(jù)進行歸一化或者標(biāo)準(zhǔn)化】

7'問題:笑于Bagging方法,以下說法錯誤的是()

選項:A:

對各弱分類器的訓(xùn)練可以通過并行方式完成

B:最終分類結(jié)果是由各弱分類器以一定的方式投票決定的

C:由于各分類器是獨立的,弱分類器的訓(xùn)練數(shù)據(jù)也是相互獨立的

D:對各弱分類器的訓(xùn)練可以通過串行方式進行

答案:【對各弱分類器的訓(xùn)練可以通過串行方式進行】

8、問題:Adboost的優(yōu)點不包括()

選項:

A:分類精度高B:

對異常點敏感?異常點會獲得較高權(quán)重

C:可以用各種回歸分類模型來構(gòu)建弱學(xué)習(xí)器?非常靈活

D:不容易發(fā)生過擬合

答案:【對異常點敏感-異常點會獲得較高權(quán)重】

9'問題:LightGBM與XGBoost相比,主要的優(yōu)勢不包括()

選項:

A:更快的訓(xùn)練速度

B:更低的內(nèi)存消耗

C:更好的準(zhǔn)確率

D:采用二階泰勒展開加快收斂

答案:【采用二階泰勒展開加快收斂】

10、問題:隨機森林和GBDT的描述不正確的是()

選項:

A:兩者都是由多棵樹組成?最終的結(jié)果都是由多棵樹一起決定

B:兩者都是使用了Boosting思想

C:隨機森林最終是多棵樹進行多數(shù)表決(回歸問題是取平均)-而GBDT是加權(quán)融合

D:隨機森林每次迭代的樣本是從全部訓(xùn)練集中有放回抽樣形成的?而GBDT每次使用全部樣本答

案:【兩者都是使用了Boosting思想】

11、問題:以下那種算法不是集成學(xué)習(xí)算法()

選項:

A:隨機森林

B:AdaBoost

C:XGBoost

D:決策樹

答案:【決策樹】

12、問題:GBDT算法的描述?不正確的是()

選項:

A:決策樹+Boosting=GBDT

B:GBDT算法主要是用了Boosting方法

C:GBDT與AdaBoost的對比,都是Boosting家族成員,使用弱分類器;都使用前向分步算法

D:梯度提升算法通過迭代地選擇一個梯度方向上的基函數(shù)來逐漸逼近局部極小值

答案:【梯度提升算法通過迭代地選擇一個梯度方向上的基函數(shù)來逐漸逼近局部極小值】

13、問題:集成學(xué)習(xí)有以下哪幾種代表算法(多選)()。

選項:

A:隨機森林

B:AdaBoost

C:SVM

D:K-means

答案:【隨機森林;

AdaBoost]

14'問題:下面關(guān)于隨機森林和梯度提升集成方法的說法哪個是正確的?(多選)()

選項:

A:這兩種方法都可以用來做分類

B:隨機森林用來做分類?梯度提升用來做回歸C:

隨機森林用來做回歸,梯度提升用來做分類

D:兩種方法都可以用來做回歸

答案:【這兩種方法都可以用來做分類;

兩種方法都可以用來做回歸】

15'問題:LightGBM與XGBoost相比?主要有以下幾個改進:(多選)()

選項:

A:基于梯度的單邊采樣算法(Gradient-basedOne-SideSampling,GOSS)

B:互斥特征捆綁算法(ExclusiveFeatureBundling,EFB)

C:直方圖算法(Histogram)

D:基于最大深度的Leaf-wise的垂直生長算法

答案:【基于梯度的單邊采樣算法(Gradient-basedOne-SideSampling,GOSS);

互斥特征捆綁算法(ExclusiveFeatureBundling,EFB);

直方圖算法(Histogram);

基于最大深度的Leaf-wise的垂直生長算法】

16、問題:GBDT由哪三個概念組成:()

選項:

A:RegressionDecisionTree(即DT)

B:GradientBoosting(即

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論