


下載本文檔
版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
機(jī)器學(xué)習(xí)實(shí)戰(zhàn)——基于Scikit-Learn知到智慧樹(shù)章節(jié)測(cè)試課后答案2024年秋蘭州石化職業(yè)技術(shù)大學(xué)第一章單元測(cè)試
以下屬于監(jiān)督學(xué)習(xí)算法的有()
A:K近鄰算法B:邏輯回歸C:線性回歸D:決策樹(shù)和隨機(jī)森林E:支持向量機(jī)(SVM)F:神經(jīng)網(wǎng)絡(luò)
答案:K近鄰算法;邏輯回歸;線性回歸;決策樹(shù)和隨機(jī)森林;支持向量機(jī)(SVM);神經(jīng)網(wǎng)絡(luò)以下屬于監(jiān)督學(xué)習(xí)算法的有()
A:聚類(lèi)B:關(guān)聯(lián)性規(guī)則學(xué)習(xí)C:可視化和降維
答案:聚類(lèi);關(guān)聯(lián)性規(guī)則學(xué)習(xí);可視化和降維下載維基百科的副本,電腦得到了更多的數(shù)據(jù),因此維基百科的副本是一個(gè)機(jī)器學(xué)習(xí)應(yīng)用。()
A:對(duì)B:錯(cuò)
答案:錯(cuò)使用機(jī)器學(xué)習(xí)方法挖掘大量數(shù)據(jù),可以發(fā)現(xiàn)并不顯著的規(guī)律。這稱作數(shù)據(jù)挖掘。()
A:錯(cuò)B:對(duì)
答案:對(duì)根據(jù)是否可以動(dòng)態(tài)漸進(jìn)學(xué)習(xí),將機(jī)器學(xué)習(xí)分為在線學(xué)習(xí)和批量學(xué)習(xí)。()
A:對(duì)B:錯(cuò)
答案:對(duì)通過(guò)簡(jiǎn)單地比較新的數(shù)據(jù)點(diǎn)和已知的數(shù)據(jù)點(diǎn),這樣的機(jī)器學(xué)習(xí)應(yīng)用是基于實(shí)例的學(xué)習(xí)。()
A:錯(cuò)B:對(duì)
答案:對(duì)在訓(xùn)練數(shù)據(jù)中進(jìn)行模式識(shí)別,以建立一個(gè)預(yù)測(cè)模型,這種機(jī)器學(xué)習(xí)應(yīng)用是基于模型的學(xué)習(xí)。()
A:對(duì)B:錯(cuò)
答案:對(duì)垃圾郵件過(guò)濾器就是一個(gè)典型的回歸任務(wù)。()
A:錯(cuò)B:對(duì)
答案:錯(cuò)在線學(xué)習(xí)系統(tǒng)的一個(gè)重要參數(shù)是學(xué)習(xí)速率,它決定了系統(tǒng)可以多快的適應(yīng)數(shù)據(jù)的改變。()
A:對(duì)B:錯(cuò)
答案:對(duì)在線學(xué)習(xí)的挑戰(zhàn)之一是,如果壞數(shù)據(jù)被用來(lái)進(jìn)行訓(xùn)練,系統(tǒng)的性能就會(huì)逐漸下滑。()
A:錯(cuò)B:對(duì)
答案:對(duì)
第二章單元測(cè)試
房?jī)r(jià)預(yù)測(cè)模型是典型的()
A:回歸任務(wù)B:批量學(xué)習(xí)任務(wù)C:強(qiáng)化學(xué)習(xí)任務(wù)D:監(jiān)督式學(xué)習(xí)任務(wù)
答案:回歸任務(wù);批量學(xué)習(xí)任務(wù);監(jiān)督式學(xué)習(xí)任務(wù)機(jī)器學(xué)習(xí)系統(tǒng)啟動(dòng)后,需要()
A:評(píng)估系統(tǒng)性能,需要對(duì)預(yù)測(cè)值采樣并進(jìn)行評(píng)估。B:定期使用新數(shù)據(jù)訓(xùn)練模型。C:編寫(xiě)監(jiān)控代碼,以定期檢查系統(tǒng)的實(shí)時(shí)性能,在性能發(fā)生下降時(shí)觸發(fā)報(bào)警。D:評(píng)估系統(tǒng)輸入數(shù)據(jù)的質(zhì)量。
答案:評(píng)估系統(tǒng)性能,需要對(duì)預(yù)測(cè)值采樣并進(jìn)行評(píng)估。;定期使用新數(shù)據(jù)訓(xùn)練模型。;編寫(xiě)監(jiān)控代碼,以定期檢查系統(tǒng)的實(shí)時(shí)性能,在性能發(fā)生下降時(shí)觸發(fā)報(bào)警。;評(píng)估系統(tǒng)輸入數(shù)據(jù)的質(zhì)量。回歸問(wèn)題的典型性能衡量指標(biāo)是均方根誤差()
A:對(duì)B:錯(cuò)
答案:對(duì)一個(gè)序列的數(shù)據(jù)處理組件稱為一個(gè)數(shù)據(jù)流水線。()
A:錯(cuò)B:對(duì)
答案:對(duì)數(shù)據(jù)可視化是數(shù)據(jù)探索的方法之一。()
A:錯(cuò)B:對(duì)
答案:對(duì)流水線的組件通常是同步運(yùn)行。()
A:錯(cuò)B:對(duì)
答案:錯(cuò)
第三章單元測(cè)試
使用二元分類(lèi)器將數(shù)字圖片分為10類(lèi)(從0到9),意味著要訓(xùn)練()個(gè)二元分類(lèi)器
A:45B:100C:90D:10
答案:45多輸出分類(lèi)是多標(biāo)簽分類(lèi)的泛化()
A:對(duì)B:錯(cuò)
答案:對(duì)多標(biāo)簽分類(lèi)和多類(lèi)別分類(lèi)器本質(zhì)上是相同的。()
A:對(duì)B:錯(cuò)
答案:錯(cuò)分析混淆矩陣可以幫助我們深入了解如何改進(jìn)分類(lèi)器。()
A:錯(cuò)B:對(duì)
答案:對(duì)可以使用混淆矩陣進(jìn)行誤差分析。()
A:錯(cuò)B:對(duì)
答案:對(duì)
第四章單元測(cè)試
當(dāng)特征的個(gè)數(shù)較大的時(shí)候(例如:特征數(shù)量為100000),標(biāo)準(zhǔn)方程求解將會(huì)非常慢()
A:錯(cuò)B:對(duì)
答案:對(duì)梯度下降是一種非常通用的優(yōu)化算法,它能夠很好地解決一系列問(wèn)題。梯度下降的整體思路是通過(guò)的迭代來(lái)逐漸調(diào)整參數(shù)使得損失函數(shù)達(dá)到最大值。()
A:錯(cuò)B:對(duì)
答案:對(duì)可以使用線性模型來(lái)擬合非線性數(shù)據(jù)。()
A:錯(cuò)B:對(duì)
答案:對(duì)一些回歸算法也可以用于分類(lèi)。()
A:對(duì)B:錯(cuò)
答案:對(duì)一些分類(lèi)算法也可以用于回歸。()
A:對(duì)B:錯(cuò)
答案:對(duì)
第五章單元測(cè)試
以下關(guān)于支持向量機(jī)的說(shuō)法正確的是()。
A:SVM分類(lèi)面取決于支持向量B:SVM適用于大規(guī)模數(shù)據(jù)集C:SVM分類(lèi)思想就是將分類(lèi)面之間的間隔最小化D:SVM方法簡(jiǎn)單,魯棒性較差
答案:SVM分類(lèi)面取決于支持向量以下關(guān)于訓(xùn)練集、驗(yàn)證集和測(cè)試集說(shuō)法不正確的是()。
A:測(cè)試集是純粹是用于測(cè)試模型泛化能力B:訓(xùn)練集是用來(lái)訓(xùn)練以及評(píng)估模型性能C:驗(yàn)證集用于調(diào)整模型參數(shù)D:其余
答案:訓(xùn)練集是用來(lái)訓(xùn)練以及評(píng)估模型性能下列哪種方法可以用來(lái)緩解過(guò)擬合的產(chǎn)生:()。
A:正則化B:增加更多的特征C:增加模型的復(fù)雜度D:A,B,C
答案:正則化SVM的原理的簡(jiǎn)單描述,可概括為:最大間隔分類(lèi)。()
A:對(duì)B:錯(cuò)
答案:對(duì)假定你使用階數(shù)為2的線性核SVM,將模型應(yīng)用到實(shí)際數(shù)據(jù)集上后,其訓(xùn)練準(zhǔn)確率和測(cè)試準(zhǔn)確率均為100%。現(xiàn)在增加模型復(fù)雜度(增加核函數(shù)的階),會(huì)發(fā)生以下哪種情況:過(guò)擬合。()
A:對(duì)B:錯(cuò)
答案:對(duì)
第六章單元測(cè)試
當(dāng)數(shù)據(jù)分布不平衡時(shí),我們可采取的措施不包括()。
A:對(duì)數(shù)據(jù)分布較多的類(lèi)別賦予更大的權(quán)重B:對(duì)數(shù)據(jù)分布較少的類(lèi)別過(guò)采樣C:對(duì)數(shù)據(jù)分布較多的類(lèi)別欠采樣D:對(duì)數(shù)據(jù)分布較少的類(lèi)別賦予更大的權(quán)重
答案:對(duì)數(shù)據(jù)分布較多的類(lèi)別賦予更大的權(quán)重?哪些機(jī)器學(xué)習(xí)模型經(jīng)過(guò)訓(xùn)練,能夠根據(jù)其行為獲得的獎(jiǎng)勵(lì)和反饋?zhàn)龀鲆幌盗袥Q策?()
A:監(jiān)督學(xué)習(xí)B:無(wú)監(jiān)督學(xué)習(xí)C:以下全部D:強(qiáng)化學(xué)習(xí)
答案:監(jiān)督學(xué)習(xí)我們想要在大數(shù)據(jù)集上訓(xùn)練決策樹(shù)模型,為了使用較少的時(shí)間,可以:()。
A:增大學(xué)習(xí)率B:增加樹(shù)的深度C:減少樹(shù)的深度D:減少樹(shù)的數(shù)量
答案:減少樹(shù)的深度決策樹(shù)算法中特征空間越大,過(guò)擬合的可能性越大。()
A:對(duì)B:錯(cuò)
答案:對(duì)大部分的機(jī)器學(xué)習(xí)工程中,數(shù)據(jù)搜集、數(shù)據(jù)清洗、特征工程這三個(gè)步驟絕大部分時(shí)間,而數(shù)據(jù)建模,占總時(shí)間比較少。()
A:對(duì)B:錯(cuò)
答案:對(duì)
第七章單元測(cè)試
使用Scikit-Learn使,將應(yīng)投票更改為軟投票,則()。
A:超參數(shù)probability設(shè)置為T(mén)ureB:確保所有分類(lèi)器都可以估算出概率C:用voting=”soft”代替voting=”hard”D:默認(rèn)情況下,SVC類(lèi)可以
答案:超參數(shù)probability設(shè)置為T(mén)ure;確保所有分類(lèi)器都可以估算出概率;用voting=”soft”代替voting=”hard”關(guān)于bagging與pasting兩種方法錯(cuò)誤的是()。
A:pasting允許訓(xùn)練實(shí)例被同一個(gè)預(yù)測(cè)器多次采樣B:采樣時(shí)bagging要將樣本放回C:bagging和pasting不允許訓(xùn)練實(shí)例在多個(gè)預(yù)測(cè)器中被多次采樣D:采樣時(shí)pasting要將樣本放回
答案:采樣時(shí)bagging要將樣本放回特征的重要性表現(xiàn)為()。
A:重要的特征更可能出現(xiàn)在靠近根節(jié)點(diǎn)的位置B:無(wú)法估算出一個(gè)特征的重要程度C:重要的特征更可能出現(xiàn)在靠近葉節(jié)點(diǎn)的位置D:不重要的特征根本不會(huì)出現(xiàn)
答案:重要的特征更可能出現(xiàn)在靠近根節(jié)點(diǎn)的位置使用梯度提升方法找到書(shū)的最佳數(shù)量,可以使用()。
A:晚期停止法B:持續(xù)訓(xùn)練法C:包外評(píng)估D:早期停止法
答案:晚期停止法堆疊法又稱層疊泛化法,它訓(xùn)練一個(gè)模型來(lái)執(zhí)行聚合任務(wù)。()
A:錯(cuò)B:對(duì)
答案:對(duì)
第八章單元測(cè)試
關(guān)于數(shù)據(jù)降維,以下說(shuō)法正確的是()。
A:維護(hù)難度上升B:會(huì)丟失一些信息C:會(huì)輕微降低系統(tǒng)性能D:能夠加速訓(xùn)練
答案:維護(hù)難度上升;會(huì)丟失一些信息;會(huì)輕微降低系統(tǒng)性能;能夠加速訓(xùn)練關(guān)于主成分分析,以下說(shuō)法正確的是()。
A:可以隨意選擇正確的數(shù)量維度B:主成分的方向穩(wěn)定C:要將數(shù)據(jù)投影在超平面上D:要先識(shí)別出最接近數(shù)據(jù)的超平面
答案:要將數(shù)據(jù)投影在超平面上;要先識(shí)別出最接近數(shù)據(jù)的超平面在PCA投影上運(yùn)行投影的逆轉(zhuǎn)換,得到的數(shù)據(jù)與原始數(shù)據(jù)一摸一樣
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 2025至2030年中國(guó)噴砂氧化牌數(shù)據(jù)監(jiān)測(cè)研究報(bào)告
- 2025至2030年中國(guó)衛(wèi)生熱水設(shè)備數(shù)據(jù)監(jiān)測(cè)研究報(bào)告
- 2025至2030年中國(guó)東方巨龍煙花數(shù)據(jù)監(jiān)測(cè)研究報(bào)告
- 2025至2030年中國(guó)PVC纖維增強(qiáng)花園管數(shù)據(jù)監(jiān)測(cè)研究報(bào)告
- 2025年中國(guó)銅跑車(chē)市場(chǎng)調(diào)查研究報(bào)告
- 2025年中國(guó)花桿市場(chǎng)調(diào)查研究報(bào)告
- 2025年度版權(quán)交易稅務(wù)籌劃及費(fèi)用協(xié)議
- 文化創(chuàng)意居間協(xié)議
- 房屋固定資產(chǎn)買(mǎi)賣(mài)合同范本
- 影視廣告宣傳片拍攝制作合同范本
- 人美版四年級(jí)書(shū)法下冊(cè)《第6課 豎心旁》教學(xué)設(shè)計(jì)
- 二年級(jí)綜合實(shí)踐活動(dòng)課件-我與蔬菜交朋友-全國(guó)通(41張)
- 血型與輸血檢驗(yàn)-臨床輸血(臨床檢驗(yàn)課件)
- 按摩師培訓(xùn)協(xié)議書(shū)
- 落地式腳手架安全技術(shù)措施
- 開(kāi)心麻花《白蛇前傳》劇本
- 常州市旅游資源調(diào)查與評(píng)價(jià)
- 中職物理課件
- 分子生物學(xué)課件:緒論-細(xì)胞生物學(xué)發(fā)展簡(jiǎn)史
- 光伏支架安裝工程質(zhì)量驗(yàn)收記錄完整
- 波普解析PPT質(zhì)譜教案資料
評(píng)論
0/150
提交評(píng)論