機(jī)器學(xué)習(xí)實(shí)戰(zhàn)-基于Scikit-Learn智慧樹知到課后章節(jié)答案2023年下蘭州石化職業(yè)技術(shù)大學(xué)_第1頁
機(jī)器學(xué)習(xí)實(shí)戰(zhàn)-基于Scikit-Learn智慧樹知到課后章節(jié)答案2023年下蘭州石化職業(yè)技術(shù)大學(xué)_第2頁
機(jī)器學(xué)習(xí)實(shí)戰(zhàn)-基于Scikit-Learn智慧樹知到課后章節(jié)答案2023年下蘭州石化職業(yè)技術(shù)大學(xué)_第3頁
機(jī)器學(xué)習(xí)實(shí)戰(zhàn)-基于Scikit-Learn智慧樹知到課后章節(jié)答案2023年下蘭州石化職業(yè)技術(shù)大學(xué)_第4頁
機(jī)器學(xué)習(xí)實(shí)戰(zhàn)-基于Scikit-Learn智慧樹知到課后章節(jié)答案2023年下蘭州石化職業(yè)技術(shù)大學(xué)_第5頁
已閱讀5頁,還剩6頁未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

機(jī)器學(xué)習(xí)實(shí)戰(zhàn)——基于Scikit-Learn智慧樹知到課后章節(jié)答案2023年下蘭州石化職業(yè)技術(shù)大學(xué)蘭州石化職業(yè)技術(shù)大學(xué)

第一章測(cè)試

以下屬于監(jiān)督學(xué)習(xí)算法的有()

A:K近鄰算法B:支持向量機(jī)(SVM)C:神經(jīng)網(wǎng)絡(luò)D:決策樹和隨機(jī)森林E:邏輯回歸F:線性回歸

答案:K近鄰算法;支持向量機(jī)(SVM);神經(jīng)網(wǎng)絡(luò);決策樹和隨機(jī)森林;邏輯回歸;線性回歸

以下屬于監(jiān)督學(xué)習(xí)算法的有()

A:可視化和降維B:關(guān)聯(lián)性規(guī)則學(xué)習(xí)C:聚類

答案:可視化和降維;關(guān)聯(lián)性規(guī)則學(xué)習(xí);聚類

下載維基百科的副本,電腦得到了更多的數(shù)據(jù),因此維基百科的副本是一個(gè)機(jī)器學(xué)習(xí)應(yīng)用。()

A:錯(cuò)B:對(duì)

答案:錯(cuò)

使用機(jī)器學(xué)習(xí)方法挖掘大量數(shù)據(jù),可以發(fā)現(xiàn)并不顯著的規(guī)律。這稱作數(shù)據(jù)挖掘。()

A:錯(cuò)B:對(duì)

答案:對(duì)

根據(jù)是否可以動(dòng)態(tài)漸進(jìn)學(xué)習(xí),將機(jī)器學(xué)習(xí)分為在線學(xué)習(xí)和批量學(xué)習(xí)。()

A:錯(cuò)B:對(duì)

答案:對(duì)

通過簡單地比較新的數(shù)據(jù)點(diǎn)和已知的數(shù)據(jù)點(diǎn),這樣的機(jī)器學(xué)習(xí)應(yīng)用是基于實(shí)例的學(xué)習(xí)。()

A:錯(cuò)B:對(duì)

答案:對(duì)

在訓(xùn)練數(shù)據(jù)中進(jìn)行模式識(shí)別,以建立一個(gè)預(yù)測(cè)模型,這種機(jī)器學(xué)習(xí)應(yīng)用是基于模型的學(xué)習(xí)。()

A:對(duì)B:錯(cuò)

答案:對(duì)

垃圾郵件過濾器就是一個(gè)典型的回歸任務(wù)。()

A:錯(cuò)B:對(duì)

答案:錯(cuò)

在線學(xué)習(xí)系統(tǒng)的一個(gè)重要參數(shù)是學(xué)習(xí)速率,它決定了系統(tǒng)可以多快的適應(yīng)數(shù)據(jù)的改變。()

A:對(duì)B:錯(cuò)

答案:對(duì)

在線學(xué)習(xí)的挑戰(zhàn)之一是,如果壞數(shù)據(jù)被用來進(jìn)行訓(xùn)練,系統(tǒng)的性能就會(huì)逐漸下滑。()

A:對(duì)B:錯(cuò)

答案:對(duì)

第二章測(cè)試

房價(jià)預(yù)測(cè)模型是典型的()

A:回歸任務(wù)B:批量學(xué)習(xí)任務(wù)C:監(jiān)督式學(xué)習(xí)任務(wù)D:強(qiáng)化學(xué)習(xí)任務(wù)

答案:回歸任務(wù);批量學(xué)習(xí)任務(wù);監(jiān)督式學(xué)習(xí)任務(wù)

機(jī)器學(xué)習(xí)系統(tǒng)啟動(dòng)后,需要()

A:評(píng)估系統(tǒng)輸入數(shù)據(jù)的質(zhì)量。B:評(píng)估系統(tǒng)性能,需要對(duì)預(yù)測(cè)值采樣并進(jìn)行評(píng)估。C:定期使用新數(shù)據(jù)訓(xùn)練模型。D:編寫監(jiān)控代碼,以定期檢查系統(tǒng)的實(shí)時(shí)性能,在性能發(fā)生下降時(shí)觸發(fā)報(bào)警。

答案:評(píng)估系統(tǒng)輸入數(shù)據(jù)的質(zhì)量。;評(píng)估系統(tǒng)性能,需要對(duì)預(yù)測(cè)值采樣并進(jìn)行評(píng)估。;定期使用新數(shù)據(jù)訓(xùn)練模型。;編寫監(jiān)控代碼,以定期檢查系統(tǒng)的實(shí)時(shí)性能,在性能發(fā)生下降時(shí)觸發(fā)報(bào)警。

回歸問題的典型性能衡量指標(biāo)是均方根誤差()

A:錯(cuò)B:對(duì)

答案:對(duì)

一個(gè)序列的數(shù)據(jù)處理組件稱為一個(gè)數(shù)據(jù)流水線。()

A:錯(cuò)B:對(duì)

答案:對(duì)

數(shù)據(jù)可視化是數(shù)據(jù)探索的方法之一。()

A:錯(cuò)B:對(duì)

答案:對(duì)

流水線的組件通常是同步運(yùn)行。()

A:錯(cuò)B:對(duì)

答案:錯(cuò)

第三章測(cè)試

使用二元分類器將數(shù)字圖片分為10類(從0到9),意味著要訓(xùn)練()個(gè)二元分類器

A:10B:45C:90D:100

答案:45

多輸出分類是多標(biāo)簽分類的泛化()

A:對(duì)B:錯(cuò)

答案:對(duì)

多標(biāo)簽分類和多類別分類器本質(zhì)上是相同的。()

A:錯(cuò)B:對(duì)

答案:錯(cuò)

分析混淆矩陣可以幫助我們深入了解如何改進(jìn)分類器。()

A:對(duì)B:錯(cuò)

答案:對(duì)

可以使用混淆矩陣進(jìn)行誤差分析。()

A:錯(cuò)B:對(duì)

答案:對(duì)

第四章測(cè)試

當(dāng)特征的個(gè)數(shù)較大的時(shí)候(例如:特征數(shù)量為100000),標(biāo)準(zhǔn)方程求解將會(huì)非常慢()

A:錯(cuò)B:對(duì)

答案:對(duì)

梯度下降是一種非常通用的優(yōu)化算法,它能夠很好地解決一系列問題。梯度下降的整體思路是通過的迭代來逐漸調(diào)整參數(shù)使得損失函數(shù)達(dá)到最大值。()

A:對(duì)B:錯(cuò)

答案:對(duì)

可以使用線性模型來擬合非線性數(shù)據(jù)。()

A:錯(cuò)B:對(duì)

答案:對(duì)

一些回歸算法也可以用于分類。()

A:錯(cuò)B:對(duì)

答案:對(duì)

一些分類算法也可以用于回歸。()

A:對(duì)B:錯(cuò)

答案:對(duì)

第五章測(cè)試

以下關(guān)于支持向量機(jī)的說法正確的是()。

A:SVM方法簡單,魯棒性較差B:SVM適用于大規(guī)模數(shù)據(jù)集C:SVM分類思想就是將分類面之間的間隔最小化D:SVM分類面取決于支持向量

答案:SVM分類面取決于支持向量

以下關(guān)于訓(xùn)練集、驗(yàn)證集和測(cè)試集說法不正確的是()。

A:訓(xùn)練集是用來訓(xùn)練以及評(píng)估模型性能B:測(cè)試集是純粹是用于測(cè)試模型泛化能力C:驗(yàn)證集用于調(diào)整模型參數(shù)D:其余

答案:訓(xùn)練集是用來訓(xùn)練以及評(píng)估模型性能

下列哪種方法可以用來緩解過擬合的產(chǎn)生:()。

A:增加更多的特征B:A,B,CC:正則化D:增加模型的復(fù)雜度

答案:正則化

SVM的原理的簡單描述,可概括為:最大間隔分類。()

A:對(duì)B:錯(cuò)

答案:對(duì)

假定你使用階數(shù)為2的線性核SVM,將模型應(yīng)用到實(shí)際數(shù)據(jù)集上后,其訓(xùn)練準(zhǔn)確率和測(cè)試準(zhǔn)確率均為100%?,F(xiàn)在增加模型復(fù)雜度(增加核函數(shù)的階),會(huì)發(fā)生以下哪種情況:過擬合。()

A:對(duì)B:錯(cuò)

答案:對(duì)

第六章測(cè)試

當(dāng)數(shù)據(jù)分布不平衡時(shí),我們可采取的措施不包括()。

A:對(duì)數(shù)據(jù)分布較少的類別過采樣B:對(duì)數(shù)據(jù)分布較多的類別賦予更大的權(quán)重C:對(duì)數(shù)據(jù)分布較少的類別賦予更大的權(quán)重D:對(duì)數(shù)據(jù)分布較多的類別欠采樣

答案:對(duì)數(shù)據(jù)分布較多的類別賦予更大的權(quán)重

?哪些機(jī)器學(xué)習(xí)模型經(jīng)過訓(xùn)練,能夠根據(jù)其行為獲得的獎(jiǎng)勵(lì)和反饋?zhàn)龀鲆幌盗袥Q策?()

A:強(qiáng)化學(xué)習(xí)B:監(jiān)督學(xué)習(xí)C:以下全部D:無監(jiān)督學(xué)習(xí)

答案:監(jiān)督學(xué)習(xí)

我們想要在大數(shù)據(jù)集上訓(xùn)練決策樹模型,為了使用較少的時(shí)間,可以:()。

A:減少樹的深度B:增加樹的深度C:增大學(xué)習(xí)率D:減少樹的數(shù)量

答案:減少樹的深度

決策樹算法中特征空間越大,過擬合的可能性越大。()

A:錯(cuò)B:對(duì)

答案:對(duì)

大部分的機(jī)器學(xué)習(xí)工程中,數(shù)據(jù)搜集、數(shù)據(jù)清洗、特征工程這三個(gè)步驟絕大部分時(shí)間,而數(shù)據(jù)建模,占總時(shí)間比較少。()

A:錯(cuò)B:對(duì)

答案:對(duì)

第七章測(cè)試

使用Scikit-Learn使,將應(yīng)投票更改為軟投票,則()。

A:默認(rèn)情況下,SVC類可以B:用voting=”soft”代替voting=”hard”C:確保所有分類器都可以估算出概率D:超參數(shù)probability設(shè)置為Ture

答案:用voting=”soft”代替voting=”hard”;確保所有分類器都可以估算出概率;超參數(shù)probability設(shè)置為Ture

關(guān)于bagging與pasting兩種方法錯(cuò)誤的是()。

A:采樣時(shí)pasting要將樣本放回B:bagging和pasting不允許訓(xùn)練實(shí)例在多個(gè)預(yù)測(cè)器中被多次采樣C:采樣時(shí)bagging要將樣本放回D:pasting允許訓(xùn)練實(shí)例被同一個(gè)預(yù)測(cè)器多次采樣

答案:采樣時(shí)bagging要將樣本放回

特征的重要性表現(xiàn)為()。

A:重要的特征更可能出現(xiàn)在靠近葉節(jié)點(diǎn)的位置B:無法估算出一個(gè)特征的重要程度C:重要的特征更可能出現(xiàn)在靠近根節(jié)點(diǎn)的位置D:不重要的特征根本不會(huì)出現(xiàn)

答案:重要的特征更可能出現(xiàn)在靠近根節(jié)點(diǎn)的位置

使用梯度提升方法找到書的最佳數(shù)量,可以使用()。

A:持續(xù)訓(xùn)練法B:晚期停止法C:包外評(píng)估D:早期停止法

答案:晚期停止法

堆疊法又稱層疊泛化法,它訓(xùn)練一個(gè)模型來執(zhí)行聚合任務(wù)。()

A:錯(cuò)B:對(duì)

答案:對(duì)

第八章測(cè)試

關(guān)于數(shù)據(jù)降維,以下說法正確的是()。

A:能夠加速訓(xùn)練B:會(huì)輕微降低系統(tǒng)性能C:會(huì)丟失一些信息D:維護(hù)難度上升

答案:能夠加速訓(xùn)練;會(huì)輕微降低系統(tǒng)性能;會(huì)丟失一些信息;維護(hù)難度上升

關(guān)于主成分分析,以下說法正確的是()。

A:要將數(shù)據(jù)投影在超平面上B:可以隨意選擇正確的數(shù)量維度C:主成分的方向穩(wěn)定D:要先識(shí)別出最接近數(shù)據(jù)的超平面

答案:要將數(shù)據(jù)投影在超平面上;要先識(shí)別出最接近數(shù)據(jù)的超平面

在PCA投影上運(yùn)行投影的逆轉(zhuǎn)換,得到的數(shù)據(jù)與原始數(shù)據(jù)一摸一樣。

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論