《機(jī)器學(xué)習(xí)-Python實(shí)踐》試卷8_第1頁
《機(jī)器學(xué)習(xí)-Python實(shí)踐》試卷8_第2頁
《機(jī)器學(xué)習(xí)-Python實(shí)踐》試卷8_第3頁
《機(jī)器學(xué)習(xí)-Python實(shí)踐》試卷8_第4頁
《機(jī)器學(xué)習(xí)-Python實(shí)踐》試卷8_第5頁
已閱讀5頁,還剩2頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)

文檔簡介

第1頁,共1頁一、單項(xiàng)選擇題(本大題共10小題,每題3分,共30分)試卷(2021試卷(2021-2022學(xué)年第1學(xué)期)考試科目機(jī)器學(xué)習(xí)-Python實(shí)踐(A卷)適用專業(yè)班級(年級)得分命題人:審閱人:班級學(xué)號姓名考試科目裝訂線1、產(chǎn)量(X,臺)與單位產(chǎn)品成本(y,元/臺)之家你的回歸方程為y=356-1.5x,這說明()A。產(chǎn)量每增加一臺,單位產(chǎn)品成本增加356元B。產(chǎn)品每增加一臺,單位產(chǎn)品的成本減少1.5元C.產(chǎn)量每增加一臺,單位產(chǎn)品的成本平均增加356元D。產(chǎn)量每增加一臺,單位產(chǎn)品成本平均減少1.5元2、直線方程y=wx+b,其中b表示()A.系數(shù)B截距C.斜率D權(quán)重3、以下描述中,對梯度解釋正確的是(多選)()A梯度是一個向量,有方向有大小B求梯度就是對梯度向量的各個元素求偏導(dǎo)C梯度只有大小沒有方向D梯度只有方向沒有大小4、關(guān)于誤差ε的說法正確的是(多選)()A誤差可以看做隨機(jī)比變量B誤差的概率分布符合正態(tài)分布C誤差的概率分布符合均勻分布D如果模型設(shè)計(jì)優(yōu)良,誤差可以避免5、標(biāo)準(zhǔn)差與方差的關(guān)系是(多選)()A標(biāo)準(zhǔn)差是方差的算術(shù)平方根B標(biāo)準(zhǔn)差可以反映離散程度,也可以反映出樣本的量綱C方差只能反映離散程度D標(biāo)準(zhǔn)差的平方是方差6、SVM中的核技巧(Kernaltrick)的作用包括以下哪項(xiàng)?()A.特征升維B.特征降維C.防止過擬合D.處理離散數(shù)據(jù)7、在數(shù)據(jù)預(yù)處理階段,我們常常對數(shù)值特征進(jìn)行歸一化或標(biāo)準(zhǔn)化 (standardization,normalization)處理。這種處理方式理論上不會對下列 哪個模型產(chǎn)生很大影響?()A.k-MeansB.k-NNC.決策樹D.譜聚類8、下面哪個激活函數(shù)在圖像分類中不能作為輸出層?()

A.sigmoid

B.Tanh

C.ReLU

D.If(x>5,1,0)

9、使用batchnormalization可以解決以下哪一個神經(jīng)網(wǎng)絡(luò)訓(xùn)練中的 問題?

()

A.防止梯度消失

B.防止激活過高或者過低

C.網(wǎng)絡(luò)訓(xùn)練太慢

D.B和C10、感知器不包括下面那個結(jié)構(gòu):()A.輸入層B.隱藏層C.輸出層D.計(jì)算層二、判斷題(本大題共10小題,每題1分,共10分)1、預(yù)剪枝是在決策樹生成過程中,對樹進(jìn)行剪枝,提前結(jié)束樹的分支 生長。()2、決策樹的剪枝基本策略有預(yù)剪枝(Pre-Pruning)和后剪枝。()3、常見的決策樹算法是ID3,C4.5,CART樹。()4、決策樹的剪枝是為了簡化決策樹模型,避免過擬合。()5、最小二乘法(又稱最小平方法)是一種數(shù)學(xué)優(yōu)化技術(shù)。它通過最小化誤差的平方和尋找數(shù)據(jù)的最佳函數(shù)匹配。()6、樸素貝葉斯(分類器)是一種生成模型,它會基于訓(xùn)練樣本對每個可能的類別建模。()7、P(A|B)表示事件B已經(jīng)發(fā)生的前提下,事件A發(fā)生的概率,叫做事件B發(fā)生下事件A的條件概率。()8、Boosting:串行,各個及學(xué)習(xí)器順序生成,因?yàn)楹笠粋€模型參數(shù)依賴于前一輪模型的預(yù)測結(jié)果。()9、Bagging:各個學(xué)習(xí)器可以并行生成。()10、Adaboost采用迭代的思想,繼承了Boosting算法,每次迭代只訓(xùn)練一個弱學(xué)習(xí)器,訓(xùn)練好的弱學(xué)習(xí)器將參與下一次迭代。()三、填空(本大題共10小題,每題3分,共30分)1、在某些情況下,我們會討論坐標(biāo)超過兩維的數(shù)組。一般地,一個數(shù)組中的元素分布在若干維坐標(biāo)的規(guī)則網(wǎng)格中,我們將其稱之為。2、回歸常用評估方法:,,。3、信息越有序,信息熵越。4、訓(xùn)練用到的每個樣本叫。5、模型沒有很好地捕捉到數(shù)據(jù)特征,不能夠很好地?cái)M合數(shù)據(jù)叫。6、提取出的正確信息條數(shù)/提取出的信息條數(shù)是。7、回歸問題對數(shù)值型連續(xù)隨機(jī)變量進(jìn)行預(yù)測和建模的監(jiān)督學(xué)習(xí)算法?;貧w往往會通過計(jì)算來確定模型的精確性。8、AdaBoost很好的利用了進(jìn)行級聯(lián)。9、AdaBoost可以將不同的作為弱分類器。10、AdaBoost具有很高的精度;相對于

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論