《機(jī)器學(xué)習(xí)-Python實(shí)踐》試卷及答案 卷5_第1頁(yè)
《機(jī)器學(xué)習(xí)-Python實(shí)踐》試卷及答案 卷5_第2頁(yè)
《機(jī)器學(xué)習(xí)-Python實(shí)踐》試卷及答案 卷5_第3頁(yè)
《機(jī)器學(xué)習(xí)-Python實(shí)踐》試卷及答案 卷5_第4頁(yè)
《機(jī)器學(xué)習(xí)-Python實(shí)踐》試卷及答案 卷5_第5頁(yè)
已閱讀5頁(yè),還剩3頁(yè)未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

第1頁(yè),共1頁(yè)一、單項(xiàng)選擇題(本大題共10小題,每題3分,共30分)試卷(試卷(學(xué)年第1學(xué)期)考試科目機(jī)器學(xué)習(xí)-Python實(shí)踐(A卷)適用專業(yè)班級(jí)(年級(jí))得分命題人:審閱人:班級(jí)學(xué)號(hào)姓名考試科目裝訂線1、點(diǎn)擊率預(yù)測(cè)是一個(gè)正負(fù)樣本不平衡問(wèn)題(例如99%的沒(méi)有點(diǎn)擊,只有1%點(diǎn)擊)。假如在這個(gè)非平衡的數(shù)據(jù)集上建立一個(gè)模型,得到訓(xùn)練樣本的正確率是99%,則下列說(shuō)法正確的是?()A.模型正確率很高,不需要優(yōu)化模型了B.模型正確率并不高,應(yīng)該建立更好的模型C.無(wú)法對(duì)模型做出好壞評(píng)價(jià)D.以上說(shuō)法都不對(duì)2、如果在大型數(shù)據(jù)集上訓(xùn)練決策樹。為了花費(fèi)更少的時(shí)間來(lái)訓(xùn)練這個(gè)模型,下列哪種做法是正確的?()A.增加樹的深度B.增加學(xué)習(xí)率C.減小樹的深度D.減少樹的數(shù)量3、我們想要訓(xùn)練一個(gè)ML模型,樣本數(shù)量有100萬(wàn)個(gè),特征維度是5000,面對(duì)如此大數(shù)據(jù),如何有效地訓(xùn)練模型?()A.對(duì)訓(xùn)練集隨機(jī)采樣,在隨機(jī)采樣的數(shù)據(jù)上建立模型B.嘗試使用在線機(jī)器學(xué)習(xí)算法C.使用PCA算法減少特征維度D.以上都對(duì)4、機(jī)器學(xué)習(xí)中做特征選擇時(shí),可能用到的方法有?(多選)()a.卡方b.信息增益c.平均互信息d.期待交叉熵5、如何在監(jiān)督式學(xué)習(xí)中使用聚類算法(多選)?()A.首先,可以創(chuàng)建聚類,然后分別在不同的集群上應(yīng)用監(jiān)督式學(xué)習(xí)算法B.在應(yīng)用監(jiān)督式學(xué)習(xí)算法之前,可以將其類別ID作為特征空間中的一個(gè)額外的特征C.在應(yīng)用監(jiān)督式學(xué)習(xí)之前,不能創(chuàng)建聚類D.在應(yīng)用監(jiān)督式學(xué)習(xí)算法之前,不能將其類別ID作為特征空間中的一個(gè)額外的特征6、下面哪句話是正確的?()A.機(jī)器學(xué)習(xí)模型的精準(zhǔn)度越高,則模型的性能越好B.增加模型的復(fù)雜度,總能減小測(cè)試樣本誤差C.增加模型的復(fù)雜度,總能減小訓(xùn)練樣本誤差D.以上說(shuō)法都不對(duì)7、如果使用線性回歸模型,下列說(shuō)法正確的是?()A.檢查異常值是很重要的,因?yàn)榫€性回歸對(duì)離群效應(yīng)很敏感B.線性回歸分析要求所有變量特征都必須具有正態(tài)分布C.線性回歸假設(shè)數(shù)據(jù)中基本沒(méi)有多重共線性D.以上說(shuō)法都不對(duì)8、以下關(guān)于Bagging特點(diǎn)的描述不正確的是()A.Bagging是一個(gè)很低效的集成學(xué)習(xí)算法B.Bagging復(fù)雜度與基學(xué)習(xí)器同階C.由于每一個(gè)樣本被選中的概率相同,因此bagging并不側(cè)重于訓(xùn)練數(shù)據(jù)集中的任何特定實(shí)例。D.對(duì)于噪聲數(shù)據(jù),bagging不太受過(guò)分?jǐn)M合的影響。9、下面哪個(gè)選項(xiàng)中哪一項(xiàng)屬于確定性算法?()A.隨機(jī)森林B.PCAC.KmeansD.GBDT10、下列屬于無(wú)監(jiān)督學(xué)習(xí)的是()A、k-meansB、SVMC、最大熵D、CRF二、判斷題(本大題共10小題,每題1分,共10分)1、FP——將負(fù)類預(yù)測(cè)為正類數(shù)。()2、交叉熵?fù)p失函數(shù)的好處是可以克服方差代價(jià)函數(shù)更新權(quán)重過(guò)慢的問(wèn) 題。()3、邏輯回歸假設(shè)數(shù)據(jù)服從伯努利分布,通過(guò)極大化似然函數(shù)的方法,運(yùn)用梯度下降來(lái)求解參數(shù),來(lái)達(dá)到將數(shù)據(jù)二分類的目的。()4、決策樹容易發(fā)生欠擬合。()5、決策樹容易發(fā)生過(guò)擬合。()6、SVM無(wú)法做多分類。()7、SVM自帶正則項(xiàng)。()8、先從初始訓(xùn)練集訓(xùn)練出一個(gè)基學(xué)習(xí)器,再根據(jù)基學(xué)習(xí)器的表現(xiàn)對(duì)訓(xùn) 練樣本分布進(jìn)行調(diào)整,使得先前基學(xué)習(xí)器做錯(cuò)的訓(xùn)練樣本在后續(xù)受到更多的 關(guān)注,然后基于調(diào)整后的樣本分布來(lái)訓(xùn)練下一個(gè)基學(xué)習(xí)器。()9、Boosting是一個(gè)迭代的過(guò)程,通過(guò)改變訓(xùn)練樣本的分布,使得基分 類器聚焦在那些很難分的樣本上。()10、Boosting結(jié)合了很多弱學(xué)習(xí)器來(lái)形成一個(gè)強(qiáng)學(xué)習(xí)器,單個(gè)模型表 現(xiàn)不佳,但它們?cè)跀?shù)據(jù)集的某些部分表現(xiàn)很好。()三、填空(本大題共10小題,每題3分,共30分)1、回歸問(wèn)題對(duì)數(shù)值型連續(xù)隨機(jī)變量進(jìn)行預(yù)測(cè)和建模的監(jiān)督學(xué)習(xí)算法?;貧w往往會(huì)通過(guò)計(jì)算來(lái)確定模型的精確性。2、評(píng)判分類效果好壞的三個(gè)指標(biāo)就是上面介紹的三個(gè)指標(biāo):,,。3、提取出的正確信息條數(shù)/提取出的信息條數(shù)是。4、模型把訓(xùn)練樣本學(xué)習(xí)“太好了”,可能把一些訓(xùn)練樣本自身的特性當(dāng)做了所有潛在樣本都有的一般性質(zhì),導(dǎo)致泛化能力下降叫。5、模型沒(méi)有很好地捕捉到數(shù)據(jù)特征,不能夠很好地?cái)M合數(shù)據(jù)叫。6、分類是預(yù)測(cè),比如把人分為好人和壞人之類的學(xué)習(xí)任務(wù)。7、訓(xùn)練用到的每個(gè)樣本叫。8、boosting算法得基本原理,以及的三種典型算法原理:,,。9、Adaboost提供一種,在框架內(nèi)可以使用各種方法構(gòu)建子分類器,可以使用簡(jiǎn)單的弱分類器,不用對(duì)特征進(jìn)行篩選,也不存在過(guò)擬合的現(xiàn)象。10、Adaboost算法不需要的先驗(yàn)知識(shí),最后得到的強(qiáng)分類器的分類精度依賴于所有弱分類器。無(wú)論是應(yīng)用于人造數(shù)據(jù)還是真實(shí)數(shù)據(jù),Adaboost都能顯著的提高學(xué)習(xí)精度。四、簡(jiǎn)答題(本大題共3小題,共30分)1、常見的監(jiān)督學(xué)習(xí)算法有哪些?帶核的SVM為什么能分類非線性問(wèn)題?3、舉例說(shuō)明機(jī)器學(xué)習(xí)的基本過(guò)程,并舉例說(shuō)明基本步驟各有哪些方法?一、選擇題1.B 2.C 3.D 4.ABCD 5.AB 6.C 7.A 8.A 9.B 10.A二、判斷題1.對(duì) 2.對(duì) 3.對(duì) 4.對(duì) 5.對(duì) 6.錯(cuò) 7.對(duì) 8.對(duì) 9.對(duì) 10.對(duì) 三、填空題1.誤差(Error) 2.正確率召回率F值 3.正確率 4.過(guò)擬合 5.欠擬合 6.離散值 7.訓(xùn)練樣本 8.adaboostGBM(Gradientbosstingmachine)XGBoost 9.框架 10.弱分類器

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論