




版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認(rèn)領(lǐng)
文檔簡介
2021中國大學(xué)MOOC機器學(xué)習(xí)(溫州大學(xué))最新中國大學(xué)MOOC滿分章節(jié)測試
圣室
引言引言課后測試
1、問題:哪一個是機器學(xué)習(xí)的合理定義?
選項:
A:機器學(xué)習(xí)從標(biāo)記的數(shù)據(jù)中學(xué)習(xí)
B:機器學(xué)習(xí)能使計算機能夠在沒有明確編程的情況下學(xué)習(xí)
C:機器學(xué)習(xí)是計算機編程的科學(xué)
D:機器學(xué)習(xí)是允許機器人智能行動的領(lǐng)域
答案:【機器學(xué)習(xí)能使計算機能夠在沒有明確編程的情況下學(xué)習(xí)】
2、問題:一個計算機程序從經(jīng)驗E中學(xué)習(xí)任務(wù)T?并用P來衡量表現(xiàn)。并且?T的表現(xiàn)P隨著經(jīng)驗E的增加而提高。假設(shè)我們給一個學(xué)習(xí)算法輸
入了很多歷史天氣的數(shù)據(jù)?讓它學(xué)會預(yù)測天氣。什么是P的合理選擇?
選項:
A:計算大量歷史氣象數(shù)據(jù)的過程
B:正確預(yù)測未來日期天氣的概率
C:天氣預(yù)報任務(wù)
D:以上都不
答案:【正確預(yù)測未來曰期天氣的概率】
3、問題:回歸問題和分類問題的區(qū)別是什么?
選項:
A:回歸問題有標(biāo)簽?分類問題沒有
B:回歸問題輸出值是離散的,分類問題輸出值是連續(xù)的
C:回歸問題輸出值是連續(xù)的?分類問題輸出值是離散的
D:回歸問題與分類問題在輸入屬性值上要求不同
答案:【回歸問題輸出值是連續(xù)的,分類問題輸出值是離散的】
4、問題:以下關(guān)于特征選擇的說法正確的是?
選項:
A:選擇的特征越多越好
B:選擇的特征越少越好
C:選擇的特征需盡可能反映不同事物之間的差異
D:以上說法均不對
答案:【選擇的特征需盡可能反映不同事物之間的差異】
5、問題:一個包含n類的多分類問題?若采用一對剩余的方法,需要拆分成多少次?
選項:
A:1
B:n-1
C:n
D:n+1
答案:【n-1】
6、問題:機器學(xué)習(xí)方法傳統(tǒng)上可以分為()類。
選項:
A:3
B:4
C:7
D:2
答案:【3】
7、問題:哪些機器學(xué)習(xí)模型經(jīng)過訓(xùn)練?能夠根據(jù)其行為獲得的獎勵和反饋做出一系列決策?選
項:
A:監(jiān)督學(xué)習(xí)
B:無監(jiān)督學(xué)習(xí)
C:強化學(xué)習(xí)
D:以上全部
答案:【強化學(xué)習(xí)】
8、問題:機器學(xué)習(xí)這個術(shù)語是由()定義的?
選項:
AJamesGosling
B:ArthurSamuel
C:GuidovanRossum
D:以上都不是
答案:【ArthurSamuel】
9、問題:哪種開發(fā)語言最適合機器學(xué)習(xí)?()
選項:
A:C
BJava
C:Python
D:HTML
答案:[Python]
10、問題:()是機器學(xué)習(xí)的一部分,與神經(jīng)網(wǎng)絡(luò)一起工作。
選項:
A:人工智能
B:深度學(xué)習(xí)
C:A和B
D:以上都不是
答案:【深度學(xué)習(xí)】
11、問題:()是可用于標(biāo)記數(shù)據(jù)的機器學(xué)習(xí)算法。
選項:
A:回歸算法
B:聚類算法
C:關(guān)聯(lián)規(guī)則算法
D:以上都不是
答案:【回歸算法】
12、問題:谷歌新聞每天收集非常多的新聞,并運用()方法再將這些新聞分組,組成若干類有關(guān)聯(lián)的新聞。于是,搜索時同一組新聞事件往往
隸屬同一主題的?所以顯示到一起。
選項:
A:回歸
B:分類
C:聚類
D:關(guān)聯(lián)規(guī)則
答案:【聚類】
13、問題:下列哪些學(xué)習(xí)問題不屬于監(jiān)督學(xué)習(xí)?()
選項:
A:聚類
B:降維
C:分類
D:回歸
答案:【聚類;
降維】
14、問題:下列哪些學(xué)習(xí)問題不屬于監(jiān)督學(xué)習(xí)?()
選項:
A:回歸
B:分類
C:聚類
D:關(guān)聯(lián)規(guī)則
答案:【聚類;
關(guān)聯(lián)規(guī)則】
15、問題:機器學(xué)習(xí)的方法由()等幾個要素構(gòu)成。
選項:
A:模型
B:損失函數(shù)
C:優(yōu)化算法
D:模型評估指標(biāo)
答案:【模型;
損失函數(shù);
優(yōu)化算法;
模型評估指標(biāo)】
16、問題:對于非概率模型而言?可按照判別函數(shù)線性與否分成線性模型與非線性模型。下面哪些模型屬于線性模型?選
項:
A:K-means
B:k近鄰
C:感知機
D:AdaBoost
答案:【K-means;
k近鄰;
感知機】
17、問題:樸素貝葉斯屬于概率模型。
選項:
A:正確
B:錯誤
答案:【正確】
18、問題:根據(jù)腫瘤的體積、患者的年齡來判斷良性或惡性?這是一個回歸問題。
選項:
A:正確
B:錯誤
答案:【錯誤】
19、問題:大部分的機器學(xué)習(xí)工程中?數(shù)據(jù)搜集、數(shù)據(jù)清洗、特征工程這三個步驟絕大部分時間,而數(shù)據(jù)建模?占總時間比較少。選
項:
A:正確
B:錯誤
答案:【正確】
20、問題:已知你朋友的信息,比如經(jīng)常發(fā)email的聯(lián)系人,或是你微博的好友、微信的朋友圈,我們可運用聚類方法自動地給朋友進行分組,
做到讓每組里的人們彼此都熟識。
選項:
A:正確
B:錯誤
答案:【正確】
邏輯回歸邏輯回歸課后測驗
1、問題:一監(jiān)獄人臉識別準(zhǔn)入系統(tǒng)用來識別待進入人員的身份,此系統(tǒng)一共包括識別4種不同的人員:獄警,小偷?送餐員?其他。下面哪種
學(xué)習(xí)方法最適合此種應(yīng)用需求:
選項:
A:二分類問題
B:多分類問題
C:回歸問題
D:聚類問題
答案:【多分類問題】
2、問題:以下關(guān)于分類問題的說法錯誤的是?
選項:
A:分類屬于監(jiān)督學(xué)習(xí)
B:分類問題輸入屬性必須是離散的
C:多分類問題可以被拆分為多個二分類問題
D:回歸問題在一定條件下可被轉(zhuǎn)化為多分類問題
答案:【分類問題輸入屬性必須是離散的】
3、問題:以下關(guān)于邏輯回歸與線性回歸問題的描述錯誤的是()
選項:
A:邏輯回歸用于處理分類問題?線性回歸用于處理回歸問題
B:線性回歸要求輸入輸出值呈線性關(guān)系,邏輯回歸不要求
C:邏輯回歸一般要求變量服從正態(tài)分布,線性回歸一般不要求
D:線性回歸計算方法一般是最小二乘法,邏輯回歸的參數(shù)計算方法是似然估計法。答
案:【邏輯回歸一般要求變量服從正態(tài)分布?線性回歸一般不要求】
4、問題:以下關(guān)于sigmoid函數(shù)的優(yōu)點說法錯誤的是?
選項:
A:函數(shù)處處連續(xù),便于求導(dǎo)
B:可以用于處理二分類問題
C:在深層次神經(jīng)網(wǎng)絡(luò)反饋傳輸中,不易出現(xiàn)梯度消失
D:可以壓縮數(shù)據(jù)值到。1]之間,便于后續(xù)處理
答案:【在深層次神經(jīng)網(wǎng)絡(luò)反饋傳輸中,不易出現(xiàn)梯度消失】
5、問題:邏輯回歸的損失函數(shù)是哪個?
選項:
A:MSE
B:交叉熠(Cross-Entropy)損失函數(shù)
C:MAE
D:RMSE
答案:【交叉婚(Cross-Entropy)損失函數(shù)】
6'問題:下面哪一項不是Sigmoid的特點?
選項:
A:當(dāng)o(z)大于等于0.5時,預(yù)測y=l
B:當(dāng)。⑵小于0.5時?預(yù)測y=0
C:當(dāng)o(z)小于0.5時?預(yù)測y=-l
D:o(z)的范圍為(0,1)
答案:【當(dāng)。⑵小于0.5時,預(yù)測
7、問題:下列哪一項不是邏輯回歸的優(yōu)點?
選項:
A:處理非線性數(shù)據(jù)較容易
B:模型形式簡單
C:資源占用少
D:可解釋性好
答案:【處理非線性數(shù)據(jù)較容易】
8'問題:假設(shè)有三類數(shù)據(jù),用OVR方法需要分類幾次才能完成?
選項:
A:1
B:2
C:3
D:4
答案:【2】
9、問題:以下哪些不是二分類問題?
選項:
A:根據(jù)腫瘤的體積、患者的年齡來判斷良性或惡性?
B:或者根據(jù)用戶的年齡、職業(yè)、存款數(shù)量來判斷信用卡是否會違約?
C:身高1.85m?體重100kg的男人穿什么尺碼的T恤?
D:根據(jù)一個人的身高和體重判斷他(她)的性別。
答案:【身高1.85m?體重100kg的男人穿什么尺碼的T恤?】
10、問題:邏輯回歸通常采用哪種正則化方式?
選項:
A:ElasticNet
B:L1正則化
C:L2正則化
DQropout正則化
答案:【L2正則化】
11、問題:假設(shè)使用邏輯回歸進行多類別分類?使用OVR分類法。下列說法正確的是?
選項:
A:對于n類別,需要訓(xùn)練n個模型
B:對于n類別?需要訓(xùn)練n-1個模型
C:對于n類別?只需要訓(xùn)練1個模型
D:以上說法都不對
答案:【對于n類別,需要訓(xùn)練n個模型】
12、問題:你正在訓(xùn)練一個分類邏輯回歸模型。以下哪項陳述是正確的?選出所有正確項選
項:A:將
正則化引入到模型中?總是能在訓(xùn)練集上獲得相同或更好的性能
B:在模型中添加許多新特性有助于防止訓(xùn)練集過度擬合
C:將正則化引入到模型中,對于訓(xùn)練集中沒有的樣本,總是可以獲得相同或更好的性能
D:向模型中添加新特征總是會在訓(xùn)練集上獲得相同或更好的性能
答案:【向模型中添加新特征總是會在訓(xùn)練集上獲得相同或更好的性能】
13、問題:以下哪項陳述是正確的?選出所有正確項()
選項:
A:在構(gòu)建學(xué)習(xí)算法的第一個版本之前?花大量時間收集大量數(shù)據(jù)是一個好主意。
B:邏輯回歸使用了Sigmoid激活函數(shù)C:
使用一個非常大的訓(xùn)練集使得模型不太可能過擬合訓(xùn)練數(shù)據(jù)。D:
如果您的模型擬合訓(xùn)練集?那么獲取更多數(shù)據(jù)可能會有幫助。答
案:【邏輯回歸使用了Sigmoid激活函數(shù);
使用一個非常大的訓(xùn)練集使得模型不太可能過擬合訓(xùn)練數(shù)據(jù)。】
14、問題:下面哪些是分類算法?
選項:
A:根據(jù)腫瘤的體積、患者的年齡來判斷良性或惡性?
B:根據(jù)用戶的年齡、職業(yè)、存款數(shù)量來判斷信用卡是否會違約?
C:身高1.85m,體重100kg的男人穿什么尺碼的丁恤?
D:根據(jù)房屋大小、衛(wèi)生間數(shù)量等特征預(yù)估房價
答案:【根據(jù)腫瘤的體積、患者的年齡來判斷良性或惡性?;
根據(jù)用戶的年齡、職業(yè)、存款數(shù)量來判斷信用卡是否會違約?;
身高1.85m,體重100kg的男人穿什么尺碼的T恤?】
15、問題:邏輯回歸的激活函數(shù)是Sigmoid。
選項:A:
正確
B:錯誤
答案:【正確】
16、問題:邏輯回歸分類的精度不夠高?因此在業(yè)界很少用到這個算法選
項:
A:正確
B:錯誤
答案:【錯誤】
17、問題:Sigmoid函數(shù)的范圍是(-1-1)
選項:
A:正確
B:錯誤
答案:【錯誤】
18、問題:邏輯回歸的特征一定是離散的。
選項:
A:正確
B:錯誤
答案:【錯誤】
19'問題:邏輯回歸算法資源占用小?尤其是內(nèi)存。
選項:A:正確
B:錯誤
答案:【正確】
20、問題:邏輯回歸的損失函數(shù)是交叉嫡損失
選項:
A:正確
B:錯誤
答案:【正確】
回歸回歸課后測試
1、問題:以下哪組變量之間存在線性回歸關(guān)系?
選項:
A:學(xué)生的性別與他的成績
B:兒子的身高與父親的身高
C:正方形的邊長與面積
D:正三角形的邊長與周長
答案:【正三角形的邊長與周長】
2、問題:回歸問題和分類問題的區(qū)別是?
選項:
A:回歸問題有標(biāo)簽?分類問題沒有B:
回歸問題輸出值是離散的?分類問題輸出值是連續(xù)的
C:回歸問題輸出值是連續(xù)的?分類問題輸出值是離散的
D:回歸問題與分類問題在輸入屬性值上要求不同
答案:【回歸問題輸出值是連續(xù)的?分類問題輸出值是離散的】
3、問題:以下說法錯誤的是?
選項:
A:殘差是預(yù)測值與真實值之間的差值
B:損失函數(shù)越小?模型訓(xùn)練得一定越好
C:正則項的目的是為了避免模型過擬合
D:最小二乘法不需要選擇學(xué)習(xí)率
答案:【損失函數(shù)越小,模型訓(xùn)練得一定越好】
4、問題:哪些算法不需要數(shù)據(jù)歸一化?
選項:
A:kNN
B:k-means
C:SVM
D:決策樹
答案:【決策樹】
5'問題:以下哪些方法不能用于處理欠擬合?
選項:
A:增大正則化系數(shù)
B:增加新的特征
(::增加模型復(fù)雜度
D:對特征進行變換?使用組合特征或高維特征
答案:【增大正則化系數(shù)】
6、問題:以下哪些方法不能用于處理過擬合?
選項:
A:對數(shù)據(jù)進行清洗
B:增大訓(xùn)練數(shù)據(jù)的量
C:利用正則化技術(shù)
D:增加數(shù)據(jù)屬性的復(fù)雜度
答案:【增加數(shù)據(jù)屬性的復(fù)雜度】
7、問題:下列關(guān)于線性回歸分析中的殘差(Residuals)說法正確的是?
選項:
A:殘差均值總是為零
B:殘差均值總是小于零
C:殘差均值總是大于零
D:以上說法都不對
答案:【殘差均值總是為零】
8'問題:為了觀察測試Y與X之間的線性關(guān)系,X是連續(xù)變量,使用下列哪種圖形比較適合?
選項:
A:散點圖
B:柱形圖
C:直方圖
D:以上都不對
答案:【散點圖】
9、問題:假如你在訓(xùn)練一個線性回歸模型,則:1.如果數(shù)據(jù)量較少?容易發(fā)生過擬合。2.如果假設(shè)空間較小,容易發(fā)生過擬合。父于這兩句
話,下列說法正確的是?
選項:
A:1和2都錯誤
B:1正確?2錯誤
C:1錯誤-2正確
D:1和2都正確
答案:【1正確,2錯誤】
10、問題:關(guān)于特征選擇?下列對Ridge回歸和Lasso回歸說法正確的是?
選項:
A:Ridge回歸適用于特征選擇
B:Lasso回歸適用于特征選擇
C:兩個都適用于特征選擇
D:以上說法都不對
答案:【Lasso回歸適用于特征選擇】
11'問題:構(gòu)建一個最簡單的線性回歸模型需要幾個系數(shù)(只有一個特征)?
選項:
A:1個
B:2個
C:3個
D:4個
答案:【2個】
12、問題:向量x=[1234-9⑼的L1范數(shù)是多少?
選項:
A:1
B:19
C:6
D:
答案:【19】
13'問題:以下哪些是使用數(shù)據(jù)規(guī)范化(特征縮放)的原因?
選項:
A:它通過降低梯度下降的每次迭代的計算成本來加速梯度下降
B:它通過減少迭代次數(shù)來獲得一個好的解,從而加快了梯度下降的速度
C:它不能防止梯度下降陷入局部最優(yōu)
D:它防止矩陣不可逆(奇異/退化)
答案:【它通過減少迭代次數(shù)來獲得一個好的解?從而加快了梯度下降的速度;它
不能防止梯度下降陷入局部最優(yōu)】
14、問題:線性回歸中,我們可以使用最小二乘法來求解系數(shù),下列關(guān)于最小二乘法說法正確的是?()選
項:
A:只適用于線性模型,不適合邏輯回歸模型等其他模型
B:不需要選擇學(xué)習(xí)率
C:當(dāng)特征數(shù)量很多的時候?運算速度會很慢
D:不需要迭代訓(xùn)練
答案:【只適用于線性模型,不適合邏輯回歸模型等其他模型;
不需要選擇學(xué)習(xí)率;
當(dāng)特征數(shù)量很多的時候,運算速度會很慢;
不需要迭代訓(xùn)練】
15、問題:欠擬合的處理主要有哪些方式:()
選項:
A:增加模型復(fù)雜度
B:減小正則化系數(shù)
C:增大正則化系數(shù)
D:添加新特征
答案:【增加模型復(fù)雜度;
減小正則化系數(shù);
添加新特征】
16'問題:假如使用一個較復(fù)雜的回歸模型來擬合樣本數(shù)據(jù)?使用Ridge回歸?調(diào)試正則化參數(shù),來降低模型復(fù)雜度?若正則化系數(shù)較大
時,關(guān)于偏差(bias)和方差(variance)-下列說法正確的是?()
選項:
A:偏差減小
B:偏差增大
C:方差減小
D:方差增大
答案:【偏差增大;
方差減小】
17'問題:如果兩個變量相關(guān),那么它們一定是線性關(guān)系。選
項:
A:正確
B:錯誤
答案:【錯誤】
18'問題:隨機梯度下降,每次迭代時候?使用一個樣本。選
項:
A:正確
B:錯誤
答案:【正確】
19、問題:L2正則化往往用于防止過擬合?而L1正則化往往用于特征選擇。
選項:
A:正確
B:錯誤
答案:【正確】
20、問題:過擬合的處理可以通過減小正則化系數(shù)。
選項:
A:正確
B:錯誤
答案:【錯誤】
樸素貝葉斯樸素貝葉斯課后測驗
1、問題:假設(shè)會開車的本科生比例是15%?會開車的研究生比例是23%。若在某大學(xué)研究生占學(xué)生比例是20%?則會開車的學(xué)生是研究生
的概率是多少?
選項:
A:80%
B:16.6%
C:23%
D:15%
答案:【16.6%]
2、問題:下列關(guān)于樸素貝葉斯的特點說法錯誤的是()
選項:
A:樸素貝葉斯模型發(fā)源于古典數(shù)學(xué)理論,數(shù)學(xué)基礎(chǔ)堅實
B:樸素貝葉斯模型無需假設(shè)特征條件獨立
C:樸素貝葉斯處理過程簡單-分類速度快
D:樸素貝葉斯對小規(guī)模數(shù)據(jù)表現(xiàn)較好
答案:【樸素貝葉斯模型無需假設(shè)特征條件獨立】
3、問題:以下算法不屬于生成模型()
選項:
A:樸素貝葉斯模型
B:混合高斯模型
C:隱馬爾科夫模型
D:支持向量機
答案:【支持向量機】
4、問題:關(guān)于拉普拉斯平滑說法正確的是()
選項:
A:避免了出現(xiàn)概率為0的情況
B:加上拉普拉斯平滑有助于提高學(xué)習(xí)性能
C:會使得最終結(jié)果可能大于1
D:以上說法都不對
答案:【避免了出現(xiàn)概率為0的情況】
5'問題:假設(shè)X和Y都服從正態(tài)分布?那么P(X<5,Y<0)就是一個(),表示X<5,Y<0兩個條件同時成立的概率,即兩個事件共同發(fā)生的概率
選項:
A:先驗概率
B:后驗概率
C:聯(lián)合概率
D:以上說法都不對
答案:【聯(lián)合概率】
6'問題:以下算法屬于判別模型的是()
選項:
A:樸素貝葉斯模型
B:深度信念網(wǎng)絡(luò)
C:隱馬爾科夫模型
D:線性回歸
答案:【線性回歸】
7、問題:樸素貝葉斯的優(yōu)點不包括()
選項:
A:算法邏輯簡單,易于實現(xiàn)
B:分類過程中時空開銷小
C:對缺失數(shù)據(jù)不太敏感,算法也比較簡單,常用于文本分類
D:樸素貝葉斯模型對輸入數(shù)據(jù)的表達形式很敏感
答案:【樸素貝葉斯模型對輸入數(shù)據(jù)的表達形式很敏感】
8、問題:市場上某商品來自兩個工廠?它們市場占有率分別為60%和40%有兩人各自買一件,則買到的來自不同工廠之概率為()。選
項:
A:0.5
B:0.24
C:0.48
D:0.3
答案:【0.48]
9'問題:以A表示事件”甲種產(chǎn)品暢銷?乙種產(chǎn)品滯銷”?則其對立事件A為()
選項:
A:甲種產(chǎn)品滯銷?乙種產(chǎn)品暢銷
B:甲-乙兩種產(chǎn)品均暢銷
C:甲種產(chǎn)品滯銷
D:甲種產(chǎn)品滯銷或乙種產(chǎn)品暢銷
答案:【甲種產(chǎn)品滯銷或乙種產(chǎn)品暢銷】
10、問題:11.關(guān)于樸素貝葉斯?下列說法錯誤的是:()
選項:
A:它是一個分類算法
B:樸素的意義在于它的一個天真的假設(shè):所有特征之間是相互獨立的
C:它實際上是將多條件下的條件概率轉(zhuǎn)換成了單一條件下的條件概率,簡化了計算
D:樸素貝葉斯不需要使用聯(lián)合概率
答案:【樸素貝葉斯不需要使用聯(lián)合概率】
11'問題:擲二枚骰子?事件A為出現(xiàn)的點數(shù)之和等于3的概率為()
選項:
A:l/ll
B:l/18
C:l/6
D渚B不對
答案:【1/18】
12、問題:公司里有一個人穿了運動鞋?推測是男還是女?已知公司里男性30人?女性70人?男性穿運動鞋的有25人,穿拖鞋的有5人
女性穿運動鞋的有40人,穿高跟鞋的有30人。則以下哪項計算錯誤()?
選項:
A:p(男|運動鞋)=0.25
B:p(女|運動鞋)=0.4
C:p(運動鞋|男性)=25/30
D:p(運動鞋|女性)=0.4
答案:【p(運動鞋|女性)=0.4】
13、問題:根據(jù)以往經(jīng)驗和分析得到的概率。在這里?我們用P(Y)來代表在沒有訓(xùn)練數(shù)據(jù)前假設(shè)Y擁有的初始概率,因此稱其為Y的后驗概
率,它反映了我們所擁有的關(guān)于Y的背景知識。
選項:
A:正確
B:錯誤
答案:【錯誤】
14'問題:樸素貝葉斯模型假設(shè)屬性之間相互獨立,這個假設(shè)在實際應(yīng)用中往往是不成立的,在屬性相關(guān)性較小時?樸素貝葉斯性能良好。
而在屬性個數(shù)比較多或者屬性之間相關(guān)性較大時,分類效果不好。選
項:
A:正確
B:錯誤
答案:【正確】
15、問題:樸素貝葉斯對缺失數(shù)據(jù)較敏感。
選項:
A:正確
B:錯誤
答案:【正確】
16、問題:判別模型所學(xué)內(nèi)容是決策邊界。
選項:
A:正確
B:錯誤
答案:【正確】
17、問題:邏輯回歸是生成模型,樸素貝葉斯是判別模型選
項:
A:正確
B:錯誤
答案:【錯誤】
18、問題:邏輯回歸和樸素貝葉斯都有對屬性特征獨立的要求選
項:
A:正確
B:錯誤
答案:【錯誤】
19'問題:樸素貝葉斯法的基本假設(shè)是條件獨立性。
選項:
A:正確
B:錯誤
答案:【正確】
20、問題:樸素貝葉斯適用于小規(guī)模數(shù)據(jù)集?邏輯回歸適用于大規(guī)模數(shù)據(jù)集。
選項:
A:正確
B:錯誤
答案:【錯誤】
機器學(xué)習(xí)實踐機器學(xué)習(xí)實踐課后測驗
1、問題:以下關(guān)于訓(xùn)練集、驗證集和測試集說法不正確的是()。
選項:
A:測試集是純粹是用于測試模型泛化能力
B:訓(xùn)練集是用來訓(xùn)練以及評估模型性能
C:驗證集用于調(diào)整模型參數(shù)
D:以上說法都不對
答案:【訓(xùn)練集是用來訓(xùn)練以及評估模型性能】
2、問題:當(dāng)數(shù)據(jù)分布不平衡時?我們可采取的措施不包括()。
選項:
A:對數(shù)據(jù)分布較少的類別過采樣
B:對數(shù)據(jù)分布較多的類別欠采樣
C:對數(shù)據(jù)分布較多的類別賦予更大的權(quán)重
D:對數(shù)據(jù)分布較少的類別賦予更大的權(quán)重
答案:【對數(shù)據(jù)分布較多的類別賦予更大的權(quán)重】
3、問題:假設(shè)有100張照片,其中?貓的照片有60張,狗的照片是40張。識別結(jié)果:TP=40,FN=20-FP=10-TN=30?則可以得到:
()。
選項:
A:Accuracy=0.8
B:Precision=0.8
C:Recall=0.8
D:以上都不對
答案:【Precision=0.8】
4、問題:關(guān)于數(shù)據(jù)規(guī)范化,下列說法中錯誤的是()。
選項:
A:包含標(biāo)準(zhǔn)化和歸一化
B:標(biāo)準(zhǔn)化在任何場景下受異常值的影響都很小
C:歸一化利用了樣本中的最大值和最小值
D:標(biāo)準(zhǔn)化實際上是將數(shù)據(jù)在樣本的標(biāo)準(zhǔn)差上做了等比例的縮放操作答
案:【標(biāo)準(zhǔn)化在任何場景下受異常值的影響都很小】
5、問題:下列哪種方法可以用來緩解過擬合的產(chǎn)生:()。
選項:
A:增加更多的特征
B:正則化
C:增加模型的復(fù)雜度
D:以上都是
答案:【正則化】
6、問題:以下關(guān)于ROC和PR曲線說法不正確的是()。
選項:
A:ROC曲線兼顧正例與負(fù)例,PR曲線完全聚焦于正例
B:如果想測試不同類別分布下分類器性能的影響?ROC曲線更為適合
CROC曲線不會隨著類別分布的改變而改變
D:類別不平衡問題中,ROC曲線比PR曲線估計效果要差
答案:【類別不平衡問題中,ROC曲線比PR曲線估計效果要差】
7、問題:以下關(guān)于偏差(Bias)和方差(Variance)說法正確的是()。
選項:
A:方差描述的是預(yù)測值與真實值之間的差別
B:偏差描述的是預(yù)測值的變化范圍
C:獲取更多的訓(xùn)練數(shù)據(jù)可解決高方差的問題
D:獲取更多的特征能解決高方差的問題
答案:【獲取更多的訓(xùn)練數(shù)據(jù)可解決高方差的問題】
8、問題:關(guān)于L1正則化和L2正則化說法錯誤的是()。
選項:
A:L1正則化的功能是使權(quán)重稀疏
B:L2正則化的功能是防止過擬合
C:L1正則化比L2正則化使用更廣泛
D:L1正則化無法有效減低數(shù)據(jù)存儲量
答案:【L1正則化比L2正則化使用更廣泛】
9、問題:隨著訓(xùn)練樣本的數(shù)量越來越大,則該數(shù)據(jù)訓(xùn)練的模型將具有:()。選
項:
A:低方差
B:高方差
C:相同方差
D:無法判斷
答案:【低方差】
10、問題:隨著訓(xùn)練樣本的數(shù)量越來越大,則該數(shù)據(jù)訓(xùn)練的模型將具有:()。選
項:
A:低偏差
B:高偏差
C:相同偏差
D:無法判斷
答案:【相同偏差】
11、問題唉于特征選擇?下列對Ridge回歸和Lasso回歸的說法正確的是:()。
選項:
A:Ridge回歸適用于特征選擇
B:Lass?;貧w適用于特征選擇
C:兩個都適用于特征選擇
D:以上說法都不對
答案:【Lass。回歸適用于特征選擇】
12、問題:一個正負(fù)樣本不平衡問題(正樣本99%?負(fù)樣本1%)。假如在這個非平衡的數(shù)據(jù)集上建立一個模型,得到訓(xùn)練樣本的正確率是
99%?則下列說法正確的是?()
選項:
A:模型正確率很高?不需要優(yōu)化模型了
B:模型正確率并不能反映模型的真實效果C:
無法對模型做出好壞評價
D:以上說法都不對
答案:【模型正確率并不能反映模型的真實效果】
13、問題:以下關(guān)于交叉驗證說法正確的是()。
選項:
A:交叉驗證可利用模型選擇避免過擬合的情況
B:交叉驗證可對模型性能合理評估
C:交叉驗證大大增加了計算量
D:以上說法都不對
答案:【交叉驗證可利用模型選擇避免過擬合的情況;
交叉驗證可對模型性能合理評估;
交叉驗證大大增加了計算量]
14、問題:評價指標(biāo)中,精確率(Precision)的計算需要哪些數(shù)值()。
選項:
A:TP
B:TN
C:FP
D:FN
答案:【TP;
FP]
15'問題:評價指標(biāo)中?召回率(Recall)的計算需要哪些數(shù)值()。
選項:
A:TP
B:TN
C:FP
D:FN
答案:【TP;
FN]
16、問題:評估完模型之后,發(fā)現(xiàn)模型存在高偏差(highbias)?應(yīng)該如何解決?()
選項:
A:減少模型的特征數(shù)量
B:增加模型的特征數(shù)量
C:增加樣本數(shù)量
D:嘗試減少正則化系數(shù)
答案:【增加模型的特征數(shù)量;
嘗試減少正則化系數(shù)】
17、問題:特征空間越大?過擬合的可能性越大。
選項:
A:正確
B:錯誤
答案:【正確】
18、問題:L2正則化得到的解更加稀疏。
選項:
A:正確
B:錯誤
答案:【錯誤】
19、問題:SMOTE算法是用了上采樣的方法。
選項:
A:正確
B:錯誤
答案:【正確】
20、問題:100萬條數(shù)據(jù)劃分訓(xùn)練集、驗證集、測試集,數(shù)據(jù)可以這樣劃分:98%,1%?1%。
選項:
A:正確
B:錯誤
答案:【正確】
KNN算法KNN算法課后測驗
1、問題:下列哪個距離度量不在KNN算法中體現(xiàn):()。
選項:
A:切比雪夫距離
B:歐氏距離
C:余弦相似度
D:曼哈頓距離
答案:【余弦相似度】
2、問題:下列選項中,關(guān)于KNN算法說法不正確是:()。
選項:
A:能找出與待預(yù)測樣本相近的K個樣本
B:默認(rèn)使用歐氏距離度量
C:實現(xiàn)過程相對簡單,但是可解釋性不強
D:效率很高
答案:【效率很高】
3、問題:以下距離度量方法中,在城市道路里?要從一個十字路口開車到另外一個十字路口的距離是:()。選項:
A:夾角余弦
B:切比雪夫距離
C:曼哈頓距離
D:歐氏距離
答案:【曼哈頓距離】
4、問題:以下關(guān)于KD樹的說法錯誤的是()。
選項:
A:KD樹是一種對k維空間的數(shù)據(jù)進行存儲以便于快速檢索的樹形數(shù)據(jù)結(jié)構(gòu)
B:KD樹主要用于多維空間關(guān)鍵數(shù)據(jù)的檢索
CKD樹節(jié)點與k維中垂直與超平面的那一維有關(guān)
D:所有x值小于指定值的節(jié)點會出現(xiàn)在右子樹
答案:【所有x值小于指定值的節(jié)點會出現(xiàn)在右子樹】
5、問題:利用KD樹進行搜索時?正確的方式是()。
選項:
A:查詢數(shù)據(jù)從子節(jié)點開始
B:若數(shù)據(jù)小于對應(yīng)節(jié)點中k維度的值,則訪問左節(jié)點
C:回溯過程是為了找距離較遠的點
D:回溯的判斷過程是從上往下進行的
答案:【若數(shù)據(jù)小于對應(yīng)節(jié)點中k維度的值?則訪問左節(jié)點】
6、問題似下哪項是KNN算法的缺點?()
選項:
A:低精度
B:對異常值不敏感
C:計算成本高
D:需要的內(nèi)存非常少
答案:【計算成本高】
7、問題:關(guān)于余弦相似度,不正確的是()。
選項:
A:余弦相似度的范圍為[-LU
B:余弦相似度的結(jié)果和向量的長度無關(guān)
C:余弦相似度為-1時候,兩個向量完全不相關(guān)
D:余弦相似度為1的時候,兩個向量完全相關(guān)
答案:【余弦相似度為-1時候,兩個向量完全不相關(guān)】
8'問題:KD樹(K-DimensionTree)的描述中,不正確的是()。
選項:
A:KD樹是二叉樹
B:KD樹可以用更高的效率來對空間進行劃分
C:KD樹的結(jié)構(gòu)非常適合尋找最近鄰居和碰撞檢測
D:KD樹切分時,從方差小的維度開始切分
答案:【KD樹切分時?從方差小的維度開始切分】
9、問題:假設(shè)有6個二維數(shù)據(jù)點:D={(2,3),(5,7),(9,6),(4,5),(6,4),(7,2)},第一次切分時候,切分線為()。選
項:
A:x=5
B:x=6
C:y=5
D:y=6
答案:【x=6】
10、問題:KNN算法在什么情況下效果較好?()
選項:
A:樣本較多但典型性不好
B:樣本較少但典型性好
C:樣本呈團狀分布
D:樣本呈鏈狀分布
答案:【樣本較少但典型性好】
11、問題:關(guān)于KNN算法的描述,不正確的是()。
選項:
A:可以用于分類
B:可以用于回歸
C:距離度量的方式通常用曼哈頓距離
D:K值的選擇一般選擇一個較小的值
答案:【距離度量的方式通常用曼哈頓距離】
12、問題:兩個向量的長度分別為1和2,兩者之間的夾角為60度,則以下選項錯誤的是()。
選項:
A:余弦相似度為0.5
B:余弦相似度為正
C:余弦相似度沒法計算,因為沒給出具體坐標(biāo)值
D:余弦相似度的值與向量的長度無關(guān)?只和向量之間的夾角有關(guān)答
案:【余弦相似度沒法計算?因為沒給出具體坐標(biāo)值】
13、問題:影響KNN算法效果的主要因素包括()。
選項:
A:K的值
B:距離度量方式
C:決策規(guī)則
D:最鄰近數(shù)據(jù)的距離
答案:【K的值;
距離度量方式;
決策規(guī)則】
14、問題:以下關(guān)于KNN說法正確的是(多選)()。
選項:
A:計算復(fù)雜度低
B:對數(shù)據(jù)沒有假設(shè)
C:對異常值不敏感
D:可解釋性好
答案:【計算復(fù)雜度低;
對數(shù)據(jù)沒有假設(shè);
對異常值不敏感】
15、問題:閔可夫斯基距離中的p取1或2B寸的閔氏距離是最為常用的,以下哪項是正確的:()。
選項:
A:p取1時是曼哈頓距離
B:p取2時是歐氏距離
C:p取無窮時是切比雪夫距離
D:閔可夫斯基空間不同于牛頓力學(xué)的平坦空間
答案:【p取1時是曼哈頓距離;
p取2時是歐氏距離;
p取無窮時是切比雪夫距離;
閔可夫斯基空間不同于牛頓力學(xué)的平坦空間】
16、問題:KNN算法的缺點包括以下幾點?()
選項:
A:可解釋性差?無法給出決策樹那樣的規(guī)則
B:對訓(xùn)練數(shù)據(jù)依賴度特別大,當(dāng)樣本不平衡的時候,對少數(shù)類的預(yù)測準(zhǔn)確率低
C:對異常值敏感
D:計算復(fù)雜性高;空間復(fù)雜性高?尤其是特征數(shù)非常多的時候
答案:【可解釋性差?無法給出決策樹那樣的規(guī)則;
對訓(xùn)練數(shù)據(jù)依賴度特別大,當(dāng)樣本不平衡的時候,對少數(shù)類的預(yù)測準(zhǔn)確率低;
計算復(fù)雜性高;空間復(fù)雜性高?尤其是特征數(shù)非常多的時候】
17'問題:兩個向量的余弦相似度越接近1,說明兩者越相似。
選項:
A:正確
B:錯誤
答案:【正確】
18、問題:k近鄰法(k-Nea「estNeighbor,kNN)是一種比較成熟也是最簡單的機器學(xué)習(xí)算法?可以用于分類,但不能用于回歸方法。
選項:
A:正確
B:錯誤
答案:【錯誤】
19、問題:KNN沒有顯示的訓(xùn)練過程,它在訓(xùn)練階段只是把數(shù)據(jù)保存下來,訓(xùn)練時間開銷為0,等收到測試樣本后進行處理。選
項:
A:正確
B:錯誤
答案:【正確】
20、問題:KNN分類的時候?對新的樣本?根據(jù)其k個最近鄰的訓(xùn)練樣本的類別?通過多數(shù)表決等方式進行預(yù)測。選
項:
A:正確
B:錯誤
答案:【正確】
決策樹決策樹課后測驗
1、問題似下關(guān)于決策樹特點分析的說法錯誤的有()。
選項:
A:推理過程容易理解?計算簡單
B:算法考慮了數(shù)據(jù)屬性之間的相關(guān)性
C:算法自動忽略了對模型沒有貢獻的屬性變量
D:算法容易造成過擬合
答案:【算法考慮了數(shù)據(jù)屬性之間的相關(guān)性】
2、問題擬下關(guān)于決策樹原理介紹錯誤的有()。
選項:
A:決策樹算法屬于無監(jiān)督學(xué)習(xí)
B:決策樹算法本質(zhì)上是貪心算法
C:決策樹生成過程中需要用到分割法
D:決策樹決策過程從根節(jié)點開始
答案:【決策樹算法屬于無監(jiān)督學(xué)習(xí)】
3、問題:我們想要在大數(shù)據(jù)集上訓(xùn)練決策樹模型,為了使用較少的時間?可以:()。選
項:
A:增加樹的深度
B:增大學(xué)習(xí)率
C:減少樹的深度
D:減少樹的數(shù)量
答案:【減少樹的深度】
4'問題似下關(guān)于決策樹算法說法錯誤的是()。
選項:
A:ID3算法選擇信息增益最大的特征作為當(dāng)前決策節(jié)點
B:C4.5算法選擇信息增益率來選擇屬性
UC4.5算法不能用于處理不完整數(shù)據(jù)
D:CART算法選擇基尼系數(shù)來選擇屬性
答案:【C4.5算法不能用于處理不完整數(shù)據(jù)】
5、問題:以下關(guān)于剪枝操作說法正確的是()。
選項:A:CART
采用的是悲觀策略的預(yù)剪技
B:ID3沒有剪枝策略
UC4.5采用的是基于代價函數(shù)的后剪枝
D:以上說法都不對
答案:【ID3沒有剪枝策略】
6、問題:C4.5選擇屬性用的是()。
選項:
A:信息增益
B:信息增益率
C:交叉嫡
D:信息病
答案:【信息增益率】
7、問題:7.哪種決策樹沒有剪枝操作()。
選項:
A:C4.5
B:CART
C:ID3
D:以上都不對
答案:【ID3】
8、問題似下那種說法是錯誤的()。
選項:
A:信息增益=信息燧—條件嫡
B:一個系統(tǒng)越是混亂,隨機變量的不確定性就越大,信息嫡就越高
C:一個系統(tǒng)越是有序,信息嫡就越低
D:中國足球隊?wèi)?zhàn)勝巴西足球隊的信息嫡要小于中國乒乓球隊?wèi)?zhàn)勝巴西乒乓球隊的信息螭
答案:【中國足球隊?wèi)?zhàn)勝巴西足球隊的信息燧要小于中國乒乓球隊?wèi)?zhàn)勝巴西乒乓球隊的信息燧】
9、問題:ID3算法的缺點不包括()。
選項:
A:ID3沒有剪枝策略,容易過擬合
B:信息增益準(zhǔn)則對可取值數(shù)目較多的特征有所偏好,類似"編號"的特征其信息增益接近于1
C:既能用于處理離散分布的特征?也能用于連續(xù)分布的特征處理
D:沒有考慮缺失值
答案:【既能用于處理離散分布的特征?也能用于連續(xù)分布的特征處理】
10、問題:關(guān)于CART算法,錯誤的是()。
選項:
A:可以處理樣本不平衡問題
B:CART分類樹采用基尼系數(shù)的大小來度量特征的各個劃分點
C:CART算法既可以處理分類問題,也可以處理回歸問題
DCART算法采用信息增益率的大小來度量特征的各個劃分點
答案:【CART算法采用信息增益率的大小來度量特征的各個劃分點】
11、問題俟于C4.5算法?錯誤的是()。
選項:
A:C4.5算法采用基尼系數(shù)的大小來度量特征的各個劃分點
BC4.5算法可以處理非離散的數(shù)據(jù)
CC4.5算法引入悲觀剪枝策略進行后剪枝
D:C4.5算法最大的特點是克服了ID3對特征數(shù)目的偏重這一缺點
答案:【C4.5算法采用基尼系數(shù)的大小來度量特征的各個劃分點】
12、問題:ID3選擇屬性用的是()。
選項:A:
信息增益
B:信息增益率
C:交叉爆
D:信息嫡
答案:【信息增益】
13、問題:決策樹有哪些代表算法()。
選項:
A:CNN
B:C4.5
C:CART
D:ID3
答案:【C4.5;
CART;
ID3]
14、問題:以下那種算法需要對數(shù)據(jù)進行歸一化或者標(biāo)準(zhǔn)化()。
選項:A:邏輯
回歸
B:決策樹
C:KNN
D:線性回歸
答案:【邏輯回歸;
KNN;
線性回歸】
15、問題:關(guān)于剪枝,以下算法正確的是:()。
選項:
A:決策樹剪枝的基本策略有預(yù)剪枝和后剪枝
B:ID3算法沒有剪枝操作
C:剪枝是防止過擬合的手段
DC4.5算法沒有剪枝操作
答案:【決策樹剪枝的基本策略有預(yù)剪枝和后剪枝;
ID3算法沒有剪枝操作;
剪枝是防止過擬合的手段】
16、問題:決策樹的說法正確的是()。
選項:
A:它易于理解、可解釋性強
B:其可作為分類算法,也可用于回歸模型
UCART使用的是二叉樹
D:不能處理連續(xù)型特征
答案:【它易于理解'可解釋性強;
其可作為分類算法,也可用于回歸模型;
CART使用的是二叉樹】
17、問題:ID3算法的核心思想就是以信息增益來度量特征選擇,選擇信息增益最大的特征進行分裂。選
項:A:正
確
B:錯誤
答案:【正確】
18、問題:C4.5是通過代價復(fù)雜度剪枝。
選項:
A:正確
B:錯誤
答案:【錯誤】
19、問題:ID3算法只能用于處理離散分布的特征。
選項:
A:正確
B:錯誤
答案:【正確】
20、問題:ID3和C4.5和CART都只能用于分類問題,不能用于回歸問題。
選項:
A:正確
B:錯誤
答案:【錯誤】
集成學(xué)習(xí)集成學(xué)習(xí)課后測驗
1、問題:在隨機森林里,你生成了幾百顆樹(TLT2......Tn)?然后對這些樹的結(jié)果進行綜合?下面關(guān)于隨機森林中每顆樹的說法正確的
是?()
選項:
A:每棵樹是通過數(shù)據(jù)集的子集和特征的子集構(gòu)建的
B:每棵樹是通過所有的特征構(gòu)建的
C:每棵樹是通過所有的數(shù)據(jù)構(gòu)建的
D:以上都不對
答案:【每棵樹是通過數(shù)據(jù)集的子集和特征的子集構(gòu)建的】
2、問題:以下關(guān)于集成學(xué)習(xí)特性說法錯誤的是()。
選項:
A:集成學(xué)習(xí)需要各個弱分類器之間具備一定的差異性B:
弱分類器的錯誤率不能高于0.5
C:集成多個線性分類器也無法解決非線性分類問題
D:當(dāng)訓(xùn)練數(shù)據(jù)集較大時?可分為多個子集?分別進行訓(xùn)練分類器再合成
答案:【集成多個線性分類器也無法解決非線性分類問題】
3'問題似下關(guān)于隨機森林(RandomForest)說法正確的是()。
選項:
A:隨機森林由若干決策樹組成,決策樹之間存在關(guān)聯(lián)性
B:隨機森林學(xué)習(xí)過程分為選擇樣本、選擇特征、構(gòu)建決策樹、投票四個部分
C:隨機森林算法容易陷入過擬合
D:隨機森林構(gòu)建決策樹時,是無放回的選取訓(xùn)練數(shù)據(jù)
答案:【隨機森林學(xué)習(xí)過程分為選擇樣本、選擇特征、構(gòu)建決策樹、投票四個部分】
4、問題:以下關(guān)于AdaBoost算法說法正確的是()。
選項:
A:AdaBoost使用的損失函數(shù)是指數(shù)函數(shù)
B:在訓(xùn)練過程中?若某個樣本點已經(jīng)被準(zhǔn)確分類?則在構(gòu)造下一個訓(xùn)練集時,該樣本的權(quán)重會下降
C:在投票時,分類誤差小的弱分類器權(quán)重較小
D:以上說法都不對
答案:【AdaBoost使用的損失函數(shù)是指數(shù)函數(shù)】
5、問題:以下關(guān)于GBDT算法說法錯誤的是()。
選項:
A:GBDT是由多棵回歸樹組成
B:GBDT泛化能力較強
UGBDT使用的是放回采樣
D:GBDT需要使用剪枝操作
答案:【GBDT使用的是放回采樣】
6、問題:XGBoost算法說法錯誤的是()
選項:
A:XGBoost算法的目標(biāo)函數(shù)采用了二階泰勒展開
B:XGBoost算法的速度要比GBDT快
UXGBoost算法要求對數(shù)據(jù)進行歸一化或者標(biāo)準(zhǔn)化
D:XGBoost算法的效果通常優(yōu)于傳統(tǒng)的機器學(xué)習(xí)模型
答案:【XGBoost算法要求對數(shù)據(jù)進行歸一化或者標(biāo)準(zhǔn)化】
7'問題:笑于Bagging方法,以下說法錯誤的是()
選項:A:
對各弱分類器的訓(xùn)練可以通過并行方式完成
B:最終分類結(jié)果是由各弱分類器以一定的方式投票決定的
C:由于各分類器是獨立的,弱分類器的訓(xùn)練數(shù)據(jù)也是相互獨立的
D:對各弱分類器的訓(xùn)練可以通過串行方式進行
答案:【對各弱分類器的訓(xùn)練可以通過串行方式進行】
8、問題:Adboost的優(yōu)點不包括()
選項:
A:分類精度高B:
對異常點敏感?異常點會獲得較高權(quán)重
C:可以用各種回歸分類模型來構(gòu)建弱學(xué)習(xí)器?非常靈活
D:不容易發(fā)生過擬合
答案:【對異常點敏感-異常點會獲得較高權(quán)重】
9'問題:LightGBM與XGBoost相比,主要的優(yōu)勢不包括()
選項:
A:更快的訓(xùn)練速度
B:更低的內(nèi)存消耗
C:更好的準(zhǔn)確率
D:采用二階泰勒展開加快收斂
答案:【采用二階泰勒展開加快收斂】
10、問題:隨機森林和GBDT的描述不正確的是()
選項:
A:兩者都是由多棵樹組成?最終的結(jié)果都是由多棵樹一起決定
B:兩者都是使用了Boosting思想
C:隨機森林最終是多棵樹進行多數(shù)表決(回歸問題是取平均)-而GBDT是加權(quán)融合
D:隨機森林每次迭代的樣本是從全部訓(xùn)練集中有放回抽樣形成的?而GBDT每次使用全部樣本答
案:【兩者都是使用了Boosting思想】
11、問題:以下那種算法不是集成學(xué)習(xí)算法()
選項:
A:隨機森林
B:AdaBoost
C:XGBoost
D:決策樹
答案:【決策樹】
12、問題:GBDT算法的描述?不正確的是()
選項:
A:決策樹+Boosting=GBDT
B:GBDT算法主要是用了Boosting方法
C:GBDT與AdaBoost的對比,都是Boosting家族成員,使用弱分類器;都使用前向分步算法
D:梯度提升算法通過迭代地選擇一個梯度方向上的基函數(shù)來逐漸逼近局部極小值
答案:【梯度提升算法通過迭代地選擇一個梯度方向上的基函數(shù)來逐漸逼近局部極小值】
13、問題:集成學(xué)習(xí)有以下哪幾種代表算法(多選)()。
選項:
A:隨機森林
B:AdaBoost
C:SVM
D:K-means
答案:【隨機森林;
AdaBoost]
14'問題:下面關(guān)于隨機森林和梯度提升集成方法的說法哪個是正確的?(多選)()
選項:
A:這兩種方法都可以用來做分類
B:隨機森林用來做分類?梯度提升用來做回歸C:
隨機森林用來做回歸,梯度提升用來做分類
D:兩種方法都可以用來做回歸
答案:【這兩種方法都可以用來做分類;
兩種方法都可以用來做回歸】
15'問題:LightGBM與XGBoost相比?主要有以下幾個改進:(多選)()
選項:
A:基于梯度的單邊采樣算法(Gradient-basedOne-SideSampling,GOSS)
B:互斥特征捆綁算法(ExclusiveFeatureBundling,EFB)
C:直方圖算法(Histogram)
D:基于最大深度的Leaf-wise的垂直生長算法
答案:【基于梯度的單邊采樣算法(Gradient-basedOne-SideSampling,GOSS);
互斥特征捆綁算法(ExclusiveFeatureBundling,EFB);
直方圖算法(Histogram);
基于最大深度的Leaf-wise的垂直生長算法】
16、問題:GBDT由哪三個概念組成:()
選項:
A:RegressionDecisionTree(即DT)
B:GradientBoosting(即
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 茶樓承包合同
- 土石方工程開挖施工合同
- 企業(yè)人力資源數(shù)字化轉(zhuǎn)型戰(zhàn)略規(guī)劃設(shè)計
- 2025年銀川貨運車從業(yè)資格證考試內(nèi)容
- 《Scratch初體驗》導(dǎo)學(xué)案
- 109-指揮調(diào)度系統(tǒng)
- 節(jié)溫器戰(zhàn)略市場規(guī)劃報告
- 修路材料采購合同范例
- 個人理財心得體會
- 單位施工合同范本
- 電線電纜檢測報告模板
- 模具開發(fā)管理手冊
- Q∕SY 06505.13-2016 煉油化工工程儀表自動化設(shè)計規(guī)范 第13部分:儀表防爆及防護
- 油漆使用登記記錄表
- 【知識點提綱】新教材-人教版高中化學(xué)必修第一冊全冊各章節(jié)知識點考點重點難點提煉匯總
- 高中語文基礎(chǔ)知識手冊薛金星
- 輪轂電機驅(qū)動電動車懸架和轉(zhuǎn)向系統(tǒng)設(shè)計與性能匹配
- 二年級第二學(xué)期體育知識結(jié)構(gòu)圖
- CASS勘測定界操作指導(dǎo)方案
- 中國商品條碼系統(tǒng)注冊登記表規(guī)范填寫
- 湘科教版小學(xué)信息技術(shù)四年級下冊全冊教案.doc
評論
0/150
提交評論