《機(jī)器學(xué)習(xí)-Python實(shí)踐》試卷及答案 卷5_第1頁
《機(jī)器學(xué)習(xí)-Python實(shí)踐》試卷及答案 卷5_第2頁
《機(jī)器學(xué)習(xí)-Python實(shí)踐》試卷及答案 卷5_第3頁
《機(jī)器學(xué)習(xí)-Python實(shí)踐》試卷及答案 卷5_第4頁
《機(jī)器學(xué)習(xí)-Python實(shí)踐》試卷及答案 卷5_第5頁
已閱讀5頁,還剩3頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

第1頁,共1頁一、單項(xiàng)選擇題(本大題共10小題,每題3分,共30分)試卷(試卷(學(xué)年第1學(xué)期)考試科目機(jī)器學(xué)習(xí)-Python實(shí)踐(A卷)適用專業(yè)班級(年級)得分命題人:審閱人:班級學(xué)號姓名考試科目裝訂線1、點(diǎn)擊率預(yù)測是一個(gè)正負(fù)樣本不平衡問題(例如99%的沒有點(diǎn)擊,只有1%點(diǎn)擊)。假如在這個(gè)非平衡的數(shù)據(jù)集上建立一個(gè)模型,得到訓(xùn)練樣本的正確率是99%,則下列說法正確的是?()A.模型正確率很高,不需要優(yōu)化模型了B.模型正確率并不高,應(yīng)該建立更好的模型C.無法對模型做出好壞評價(jià)D.以上說法都不對2、如果在大型數(shù)據(jù)集上訓(xùn)練決策樹。為了花費(fèi)更少的時(shí)間來訓(xùn)練這個(gè)模型,下列哪種做法是正確的?()A.增加樹的深度B.增加學(xué)習(xí)率C.減小樹的深度D.減少樹的數(shù)量3、我們想要訓(xùn)練一個(gè)ML模型,樣本數(shù)量有100萬個(gè),特征維度是5000,面對如此大數(shù)據(jù),如何有效地訓(xùn)練模型?()A.對訓(xùn)練集隨機(jī)采樣,在隨機(jī)采樣的數(shù)據(jù)上建立模型B.嘗試使用在線機(jī)器學(xué)習(xí)算法C.使用PCA算法減少特征維度D.以上都對4、機(jī)器學(xué)習(xí)中做特征選擇時(shí),可能用到的方法有?(多選)()a.卡方b.信息增益c.平均互信息d.期待交叉熵5、如何在監(jiān)督式學(xué)習(xí)中使用聚類算法(多選)?()A.首先,可以創(chuàng)建聚類,然后分別在不同的集群上應(yīng)用監(jiān)督式學(xué)習(xí)算法B.在應(yīng)用監(jiān)督式學(xué)習(xí)算法之前,可以將其類別ID作為特征空間中的一個(gè)額外的特征C.在應(yīng)用監(jiān)督式學(xué)習(xí)之前,不能創(chuàng)建聚類D.在應(yīng)用監(jiān)督式學(xué)習(xí)算法之前,不能將其類別ID作為特征空間中的一個(gè)額外的特征6、下面哪句話是正確的?()A.機(jī)器學(xué)習(xí)模型的精準(zhǔn)度越高,則模型的性能越好B.增加模型的復(fù)雜度,總能減小測試樣本誤差C.增加模型的復(fù)雜度,總能減小訓(xùn)練樣本誤差D.以上說法都不對7、如果使用線性回歸模型,下列說法正確的是?()A.檢查異常值是很重要的,因?yàn)榫€性回歸對離群效應(yīng)很敏感B.線性回歸分析要求所有變量特征都必須具有正態(tài)分布C.線性回歸假設(shè)數(shù)據(jù)中基本沒有多重共線性D.以上說法都不對8、以下關(guān)于Bagging特點(diǎn)的描述不正確的是()A.Bagging是一個(gè)很低效的集成學(xué)習(xí)算法B.Bagging復(fù)雜度與基學(xué)習(xí)器同階C.由于每一個(gè)樣本被選中的概率相同,因此bagging并不側(cè)重于訓(xùn)練數(shù)據(jù)集中的任何特定實(shí)例。D.對于噪聲數(shù)據(jù),bagging不太受過分?jǐn)M合的影響。9、下面哪個(gè)選項(xiàng)中哪一項(xiàng)屬于確定性算法?()A.隨機(jī)森林B.PCAC.KmeansD.GBDT10、下列屬于無監(jiān)督學(xué)習(xí)的是()A、k-meansB、SVMC、最大熵D、CRF二、判斷題(本大題共10小題,每題1分,共10分)1、FP——將負(fù)類預(yù)測為正類數(shù)。()2、交叉熵?fù)p失函數(shù)的好處是可以克服方差代價(jià)函數(shù)更新權(quán)重過慢的問 題。()3、邏輯回歸假設(shè)數(shù)據(jù)服從伯努利分布,通過極大化似然函數(shù)的方法,運(yùn)用梯度下降來求解參數(shù),來達(dá)到將數(shù)據(jù)二分類的目的。()4、決策樹容易發(fā)生欠擬合。()5、決策樹容易發(fā)生過擬合。()6、SVM無法做多分類。()7、SVM自帶正則項(xiàng)。()8、先從初始訓(xùn)練集訓(xùn)練出一個(gè)基學(xué)習(xí)器,再根據(jù)基學(xué)習(xí)器的表現(xiàn)對訓(xùn) 練樣本分布進(jìn)行調(diào)整,使得先前基學(xué)習(xí)器做錯(cuò)的訓(xùn)練樣本在后續(xù)受到更多的 關(guān)注,然后基于調(diào)整后的樣本分布來訓(xùn)練下一個(gè)基學(xué)習(xí)器。()9、Boosting是一個(gè)迭代的過程,通過改變訓(xùn)練樣本的分布,使得基分 類器聚焦在那些很難分的樣本上。()10、Boosting結(jié)合了很多弱學(xué)習(xí)器來形成一個(gè)強(qiáng)學(xué)習(xí)器,單個(gè)模型表 現(xiàn)不佳,但它們在數(shù)據(jù)集的某些部分表現(xiàn)很好。()三、填空(本大題共10小題,每題3分,共30分)1、回歸問題對數(shù)值型連續(xù)隨機(jī)變量進(jìn)行預(yù)測和建模的監(jiān)督學(xué)習(xí)算法?;貧w往往會(huì)通過計(jì)算來確定模型的精確性。2、評判分類效果好壞的三個(gè)指標(biāo)就是上面介紹的三個(gè)指標(biāo):,,。3、提取出的正確信息條數(shù)/提取出的信息條數(shù)是。4、模型把訓(xùn)練樣本學(xué)習(xí)“太好了”,可能把一些訓(xùn)練樣本自身的特性當(dāng)做了所有潛在樣本都有的一般性質(zhì),導(dǎo)致泛化能力下降叫。5、模型沒有很好地捕捉到數(shù)據(jù)特征,不能夠很好地?cái)M合數(shù)據(jù)叫。6、分類是預(yù)測,比如把人分為好人和壞人之類的學(xué)習(xí)任務(wù)。7、訓(xùn)練用到的每個(gè)樣本叫。8、boosting算法得基本原理,以及的三種典型算法原理:,,。9、Adaboost提供一種,在框架內(nèi)可以使用各種方法構(gòu)建子分類器,可以使用簡單的弱分類器,不用對特征進(jìn)行篩選,也不存在過擬合的現(xiàn)象。10、Adaboost算法不需要的先驗(yàn)知識,最后得到的強(qiáng)分類器的分類精度依賴于所有弱分類器。無論是應(yīng)用于人造數(shù)據(jù)還是真實(shí)數(shù)據(jù),Adaboost都能顯著的提高學(xué)習(xí)精度。四、簡答題(本大題共3小題,共30分)1、常見的監(jiān)督學(xué)習(xí)算法有哪些?帶核的SVM為什么能分類非線性問題?3、舉例說明機(jī)器學(xué)習(xí)的基本過程,并舉例說明基本步驟各有哪些方法?一、選擇題1.B 2.C 3.D 4.ABCD 5.AB 6.C 7.A 8.A 9.B 10.A二、判斷題1.對 2.對 3.對 4.對 5.對 6.錯(cuò) 7.對 8.對 9.對 10.對 三、填空題1.誤差(Error) 2.正確率召回率F值 3.正確率 4.過擬合 5.欠擬合 6.離散值 7.訓(xùn)練樣本 8.adaboostGBM(Gradientbosstingmachine)XGBoost 9.框架 10.弱分類器

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論