《機器學(xué)習(xí)-Python實踐》試卷及答案 卷10_第1頁
《機器學(xué)習(xí)-Python實踐》試卷及答案 卷10_第2頁
《機器學(xué)習(xí)-Python實踐》試卷及答案 卷10_第3頁
《機器學(xué)習(xí)-Python實踐》試卷及答案 卷10_第4頁
《機器學(xué)習(xí)-Python實踐》試卷及答案 卷10_第5頁
已閱讀5頁,還剩4頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)

文檔簡介

第1頁,共1頁一、單項選擇題(本大題共10小題,每題3分,共30分)試卷(試卷(學(xué)年第1學(xué)期)考試科目機器學(xué)習(xí)-Python實踐(A卷)適用專業(yè)班級(年級)得分命題人:審閱人:班級學(xué)號姓名考試科目裝訂線1、假設(shè)你正在做一個項目,它是一個二元分類問題。你在數(shù)據(jù)集上訓(xùn)練一個模型,并在驗證數(shù)據(jù)集上得到混淆矩陣。基于上述混淆矩陣,下面哪個選項會給你正確的預(yù)測。()1精確度是~0.912錯誤分類率是~0.913假正率(Falsecorrectclassification)是~0.954真正率(Truepositiverate)是~0.95A1和3B2和4C1和4D2和32、對于下面的超參數(shù)來說,更高的值對于決策樹算法更好嗎?1用于拆分的樣本量()2樹深3樹葉樣本A1和2B2和3C1和3D1、2和3E無法分辨3、假如我們使用非線性可分的SVM目標(biāo)函數(shù)作為最優(yōu)化對象,我們怎么保證模型線性可分?()A設(shè)C=1B設(shè)C=0C設(shè)C=無窮大D以上都不對4、NaveBayes是一種特殊的Bayes分類器,特征變量是X,類別標(biāo)簽是C,它的一個假定是:()A.各類別的先驗概率P(C)是相等的B.以0為均值,sqr(2)/2為標(biāo)準(zhǔn)差的正態(tài)分布C.特征變量X的各個維度是類別條件獨立隨機變量D.P(X|C)是高斯分布5、假定某同學(xué)使用NaiveBayesian(NB)分類模型時,不小心將訓(xùn)練數(shù)據(jù)的兩個維度搞重復(fù)了,那么關(guān)于NB的說法中正確的是:()A.這個被重復(fù)的特征在模型中的決定作用會被加強B.模型效果相比無重復(fù)特征的情況下精確度會降低C.如果所有特征都被重復(fù)一遍,得到的模型預(yù)測結(jié)果相對于不重復(fù)的情況下的模型預(yù)測結(jié)果一樣。D.當(dāng)兩列特征高度相關(guān)時,無法用兩列特征相同時所得到的結(jié)論來分析問題6、統(tǒng)計模式分類問題中,當(dāng)先驗概率未知時,可以使用()A.最小最大損失準(zhǔn)則B.最小誤判概率準(zhǔn)則C.最小損失準(zhǔn)則D.N-P判決7、甲盒中有200個螺桿,其中有160個A型螺桿;乙盒中有240個螺母,其中有180個A型的?,F(xiàn)從甲乙兩盒中各任取一個,則能配成A型螺栓的概率為多少?()A.1/20B.15/16C.3/5D.19/208、關(guān)于激活函數(shù)功能表述正確的是?()A.信號強度大于閾值的向下一層傳播B.信號強度小于閾值的向下一層傳播C.信號強度始終不向下一層傳播D.以上都不對9、激活函數(shù)的作用描述錯誤的是?()A.輔助信號傳輸?shù)拈T控函數(shù)B.構(gòu)建模型的非線性特性C.提升學(xué)習(xí)復(fù)雜模型的能力D.對與非線性沒有幫助,可有可無10、如下那些函數(shù)沒有梯度消失的問題?()A.ReLUB.sigmoidC.tanhD.softmax二、判斷題(本大題共10小題,每題1分,共10分)1、如果一個經(jīng)過訓(xùn)練的機器學(xué)習(xí)模型在測試集上達(dá)到100%的準(zhǔn)確率, 這是否意味著該模型將在另外一個新的測試集上也能得到100%的準(zhǔn)確率。 ()2、如果自變量X和因變量Y之間存在高度的非線性和復(fù)雜關(guān)系,那 么樹模型很可能優(yōu)于經(jīng)典回歸方法。()3、在訓(xùn)練完SVM之后,我們可以只保留支持向量,而舍去所有非支持 向量。 仍然不會影響模型分類能力。()4、兩個變量相關(guān),它們的相關(guān)系數(shù)r可能為0。()5、如果兩個變量相關(guān),那么它們一定是線性關(guān)系嗎?()6、“過擬合”只在監(jiān)督學(xué)習(xí)中出現(xiàn),在非監(jiān)督學(xué)習(xí)中,沒有“過擬合”, 這是()7、錯誤率(ErrorRate)是分類錯誤的樣本數(shù)占樣本總數(shù)的比例。 ()8、DSS主要是基于數(shù)據(jù)倉庫.聯(lián)機數(shù)據(jù)分析和數(shù)據(jù)挖掘技術(shù)的應(yīng)用。 ()9、OLAP技術(shù)側(cè)重于把數(shù)據(jù)庫中的數(shù)據(jù)進(jìn)行分析、轉(zhuǎn)換成輔助決策信息, 是繼數(shù)據(jù)庫技術(shù)發(fā)展之后迅猛發(fā)展起來的一種新技術(shù)。()10、商業(yè)智能系統(tǒng)與一般交易系統(tǒng)之間在系統(tǒng)設(shè)計上的主要區(qū)別在于: 后者把結(jié)構(gòu)強加于商務(wù)之上,一旦系統(tǒng)設(shè)計完畢,其程序和規(guī)則不會輕 易改變;而前者則是一個學(xué)習(xí)型系統(tǒng),能自動適應(yīng)商務(wù)不斷變化的要求。 ()三、填空(本大題共10小題,每題3分,共30分)1、是具有相同特征和緯度的對象的集合,表現(xiàn)為一張二維數(shù)據(jù)表。2、線性回歸如果是泊松分布,那就是。3、經(jīng)驗誤差(empiricalerror)也叫。4、訓(xùn)練過程中用到的數(shù)據(jù)叫。5、模型沒有很好地捕捉到數(shù)據(jù)特征,不能夠很好地擬合數(shù)據(jù)叫。6、評判分類效果好壞的三個指標(biāo)就是上面介紹的三個指標(biāo):,,。7、損失函數(shù)也叫或。8、分類(Classification):是把不同的數(shù)據(jù)劃分開,其過程是通過訓(xùn)練數(shù)據(jù)集獲得一個分類器,再通過分類器去預(yù)測未知數(shù)據(jù),分類是一種。9、聚類的一般過程數(shù)據(jù)準(zhǔn)備:和。10、聚類的特征選擇:從最初的特征中選擇最有效的特征,并將其存儲在中。四、簡答題(本大題共3小題,共30分)1、預(yù)剪枝和后剪枝兩種剪枝策略對比?2、什么是核技巧,有什么用處?3、硬投票分類器和軟投票分類器有什么區(qū)別?一、選擇題1.C 2.E 3.C 4.C 5.BD 6.AD 7.C 8.A 9.D 10.A二、判斷題1.錯 2.對 3.對 4.對 5.錯 6.錯 7.對 8.對 9.錯 10.對 三、填空題1.矩陣 2.泊松回歸 3.訓(xùn)練誤差 4.訓(xùn)練集 5.欠擬合 6.正確率召回率F值 7.代價函數(shù)目標(biāo)函數(shù) 8.監(jiān)督學(xué)習(xí)(SupervisedLearning)方法 9.特征標(biāo)準(zhǔn)化降維 10.向量四、簡答題1、答:后剪枝決策樹通常比預(yù)剪枝決策樹保留了更多的分支;后剪枝決策樹的欠擬合風(fēng)險很小,泛化性能往往優(yōu)于預(yù)剪枝決策樹;后剪枝決策樹訓(xùn)練時間開銷比未剪枝決策樹和預(yù)剪枝決策樹都要大的多。2、答:核技巧使用核函數(shù),確保在高維空間不需要明確計算點的坐標(biāo),而是計算數(shù)據(jù)的特征空間中的內(nèi)積。這使其具有一個很有用的屬性:更容易的計算高維空間中點的坐標(biāo)。許多算法都可以表示稱這樣的內(nèi)積形式,使用核技巧可以保證低維數(shù)據(jù)在高維空間中運用算法進(jìn)行計算。3、答:硬投票分類器只是統(tǒng)計每個分類器的投票,然后

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論