機(jī)器學(xué)習(xí)學(xué)習(xí)通超星期末考試答案章節(jié)答案2024年_第1頁(yè)
機(jī)器學(xué)習(xí)學(xué)習(xí)通超星期末考試答案章節(jié)答案2024年_第2頁(yè)
機(jī)器學(xué)習(xí)學(xué)習(xí)通超星期末考試答案章節(jié)答案2024年_第3頁(yè)
免費(fèi)預(yù)覽已結(jié)束,剩余3頁(yè)可下載查看

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

機(jī)器學(xué)習(xí)學(xué)習(xí)通超星期末考試章節(jié)答案2024年假定A的取值范圍是-1075~923。使用十進(jìn)制縮放規(guī)范化方法轉(zhuǎn)換-1075結(jié)果為:

,923轉(zhuǎn)換結(jié)果為:

答案:-0.1075;0.0923假定屬性平均家庭總收入的均值和標(biāo)準(zhǔn)差分別為9000元和2400元,值12600元使用z-score規(guī)范化轉(zhuǎn)換結(jié)果為:

答案:1.5使用min-max方法規(guī)范化數(shù)據(jù)組:200,300,400,600,1000的結(jié)果分別是

,

,

答案:0;0.125;0.25;0.5;1/star3/origin/4bf8e7c2bac9c9f3c681e68be69b7b02.png

答案:0.033使用KNN算法對(duì)兩個(gè)未知類型的樣本進(jìn)行分類(冰川水或者湖泊水),樣本數(shù)據(jù)如下表所示,其中K=3,即選擇最近的3個(gè)鄰居,試問(wèn)表中樣本G的類型是

,H的類型是

。樣本Ca+濃度Mg+濃度Na+濃度Cl-濃度類型A0.1冰川水B0.3湖泊水C0.3冰川水D0.1冰川水E0湖泊水F0.4湖泊水G0.2?H0.2?

答案:湖泊水;冰川水/star3/origin/eebcf2c2a8197dec7c2429b53ae7bbb4.png

答案:0.926/star3/origin/09d56ee143f35ebc99fa20733fda5b6b.png

答案:0.966;0.875;0.918機(jī)器學(xué)習(xí)映射規(guī)則的構(gòu)造,有哪三個(gè)要素1._____2.______3._______

答案:模型結(jié)構(gòu);

模型;目標(biāo)函數(shù);

策略;優(yōu)化算法;

算法機(jī)器學(xué)習(xí)有哪3個(gè)基本流程(基本問(wèn)題)1._____2._____3.______

答案:特征提取;規(guī)則構(gòu)造;模型評(píng)估生成多項(xiàng)式特征的作用有哪些:

答案:增加特征的維度;在模型中加入非線性映射關(guān)系;可以在模型中加入特征間的交互關(guān)系;將多項(xiàng)式特征輸入線性回歸模型就是多項(xiàng)式回歸模型關(guān)于離散型特征的表述哪些是正確的

答案:離散型特征是指特征不是連續(xù)數(shù)值型的而是分類型的;對(duì)于某些模型離散型特征需要編碼為數(shù)字才能使用;離散型特征的常用編碼方式有One-Hot編碼;某些情況下離散型特征更適合用整數(shù)編碼連續(xù)型特征的標(biāo)準(zhǔn)化(歸一化)縮放有哪些作用

答案:將有量綱的數(shù)據(jù)轉(zhuǎn)化為無(wú)量綱數(shù)據(jù);將不同維度的特征值縮放到相同的范圍,避免數(shù)量級(jí)大的特征被模型誤認(rèn)為占主導(dǎo)地位;提升模型優(yōu)化的收斂速度關(guān)于樣本劃分下列說(shuō)法錯(cuò)誤的是?

答案:相比于自助法,在初始數(shù)據(jù)量較小時(shí)交叉驗(yàn)證更常用關(guān)于訓(xùn)練集和測(cè)試集的劃分,下面比較好的做法是:

答案:將所有數(shù)據(jù)先隨機(jī)打亂順序,平均分成5份,輪流拿出其中1份作為測(cè)試集,其余的4份做為訓(xùn)練集,各次測(cè)試集預(yù)測(cè)的正確率求均值,正確率均值最高的模型就是我們所要選的模型關(guān)于面向回歸任務(wù)模型的評(píng)價(jià)指標(biāo),下面錯(cuò)誤的說(shuō)法是

答案:R2(R-Squared)指標(biāo)值越小精確度越高關(guān)于面向分類任務(wù)模型的評(píng)價(jià)指標(biāo),下面說(shuō)法正確的是:

答案:F1,AUC兩個(gè)指標(biāo)都可以用來(lái)評(píng)價(jià)模型的綜合性能關(guān)于面向分類任務(wù)模型的評(píng)價(jià)指標(biāo),下面說(shuō)法錯(cuò)誤的是:

答案:正確率高的模型一定是好的模型提高模型容量(模型復(fù)雜度)一定會(huì)導(dǎo)致如下效果,但不包括

答案:降低泛化誤差/star3/origin/9794ae34610d49b6e0c3f427a73a8781.png

答案:欠擬合,過(guò)擬合關(guān)于訓(xùn)練誤差和泛化誤差正確的說(shuō)法是

答案:測(cè)試誤差是模型在測(cè)試樣本集上的整體誤差,通常用測(cè)試誤差近似替代泛化誤差通過(guò)歷史數(shù)據(jù)預(yù)測(cè)股票價(jià)格是哪一種機(jī)器學(xué)習(xí)任務(wù)類型

答案:監(jiān)督學(xué)習(xí);回歸/star3/origin/4a5b04842a84802de05a8c73178d0015.png

答案:特征值下列有關(guān)機(jī)器學(xué)習(xí)的說(shuō)法,錯(cuò)誤的是?

答案:機(jī)器學(xué)習(xí)和人工智能是同一個(gè)概念,其研究對(duì)象就是人工智能的算法/ananas/latex/p/4783034

答案:0.983;0.9833;0.945降低模型容量(復(fù)雜度)的方法除了范數(shù)懲罰,還有決策樹(shù)模型的__________,__________和神經(jīng)網(wǎng)絡(luò)模型的__________。

答案:預(yù)剪枝;后剪枝;隨機(jī)失活使用L1范數(shù)作為懲罰函數(shù)的線性回歸又稱為_(kāi)______,使用L2范數(shù)作為懲罰函數(shù)的線性回歸又稱為_(kāi)______。

答案:Lasso回歸;嶺回歸通過(guò)樣本改善模型的手段有哪些:

答案:增加樣本采樣;樣本增強(qiáng);過(guò)采樣;欠采樣關(guān)于范數(shù)懲罰下面說(shuō)法正確的是:

答案:范數(shù)懲罰可以降低模型容量(復(fù)雜度);L1范數(shù)懲罰的有特征選擇的作用;線性回歸模型采用L2范數(shù)懲罰還可以避免線性方程組因奇異而無(wú)法求解的問(wèn)題如果一個(gè)模型在訓(xùn)練集上正確率為99%,測(cè)試集上正確率為60%。我們應(yīng)該怎么做改進(jìn)?

答案:加入正則化項(xiàng);增加樣本數(shù)量;減少模型復(fù)雜度關(guān)于隨機(jī)梯度法下面說(shuō)法錯(cuò)誤的是:

答案:隨機(jī)梯度法每次更新參數(shù)的方向都是目標(biāo)函數(shù)減小的方向關(guān)于模型的迭代優(yōu)化算法下面說(shuō)法錯(cuò)誤的是:

答案:梯度下降法搜索的是目標(biāo)函數(shù)極小值點(diǎn),因此求目標(biāo)函數(shù)的極大值點(diǎn)不能使用梯度下降法對(duì)于極大似然估計(jì)和極大后驗(yàn)估計(jì)下面說(shuō)法錯(cuò)誤的是:

答案:極大后驗(yàn)估計(jì)比極大似然估計(jì)更容易過(guò)擬合關(guān)于最小二乘估計(jì)下面說(shuō)法錯(cuò)誤的是:

答案:因?yàn)檎`差最小,最小二乘估計(jì)求解的模型參數(shù)就是最好的模型參數(shù)/star3/origin/73d8d9548f7b4b613e3ba5b655169bf9.png

答案:顏色為什么當(dāng)兩個(gè)模型的訓(xùn)練誤差相同或接近的時(shí)候,通常會(huì)選擇比較簡(jiǎn)單的一個(gè)()

答案:在相同的經(jīng)驗(yàn)風(fēng)險(xiǎn)下,復(fù)雜度小的模型的結(jié)構(gòu)風(fēng)險(xiǎn)更小下面關(guān)于SVM算法運(yùn)用核函數(shù)作用,錯(cuò)誤的是()

答案:生成數(shù)量較少的支持向量SVM分類器模型中軟間隔(softmargin)的主要用途是()

答案:允許少量錯(cuò)分類樣本,解決不完全線性可分問(wèn)題在SVM模型優(yōu)化求解當(dāng)中,主要的運(yùn)算形式是()

答案:向量?jī)?nèi)積在SVM模型的求解過(guò)程中,支持向量與拉格朗日因子α的關(guān)系是()

答案:α>0的數(shù)據(jù)點(diǎn)是支持向量在SVM(支持向量機(jī))分類模型中支持向量是指()

答案:到最優(yōu)分類超平面距離最近的訓(xùn)練樣本點(diǎn)對(duì)應(yīng)的特征向量線性SVM(支持向量機(jī))分類模型和一般線性分類器的區(qū)別主要是()

答案:是否確保間隔最大化下面那個(gè)公式表明,事件A和B條件獨(dú)立()

答案:P(AB)=P(A)P(B)樸素貝葉斯分類器的樸素之處在于()

答案:特征之間的條件獨(dú)立性假設(shè)下面有關(guān)貝葉斯分類算法的認(rèn)識(shí)錯(cuò)誤的是()

答案:貝葉斯分類算法要求樣本的特征必須是離散特征現(xiàn)在有一個(gè)表格,表格中統(tǒng)計(jì)了甲乙兩個(gè)廠生產(chǎn)的產(chǎn)品中合格品數(shù)量、次品數(shù)量,數(shù)據(jù)如下:

甲廠

乙廠

合計(jì)合格品

475

645

1120次品

25

55

80合計(jì)

500

700

1200假設(shè)事件A為產(chǎn)品是甲廠生產(chǎn)的,事件B為產(chǎn)品是次品,根據(jù)表中數(shù)據(jù)分別計(jì)算概率P(AB),P(A|B),P(B|A)

答案:25/1200;25/80;25/500對(duì)CART決策樹(shù)下面說(shuō)法錯(cuò)誤的是()

答案:CART回歸決策樹(shù)也是用基尼指數(shù)作為分支特征選擇的標(biāo)準(zhǔn)下面有關(guān)決策樹(shù)剪枝的說(shuō)法錯(cuò)誤的是()

答案:決策樹(shù)后剪枝的依據(jù)是看某層某個(gè)非葉子節(jié)點(diǎn)轉(zhuǎn)換成葉子節(jié)點(diǎn)后,模型在訓(xùn)練樣本集上的準(zhǔn)確度是否提升下面哪種決策樹(shù)模型可以完成回歸任務(wù)()

答案:CART決策樹(shù)關(guān)于決策樹(shù)模型下列說(shuō)法錯(cuò)誤的是()

答案:決策樹(shù)只能是一棵二叉樹(shù)以下哪個(gè)算法是基于規(guī)則的分類器()

答案:決策樹(shù)關(guān)于線性分類模型下面說(shuō)法錯(cuò)誤的是()

答案:線性分類器的模型結(jié)構(gòu)與線性回歸器的模型結(jié)構(gòu)是一樣的關(guān)于線性回歸模型的范數(shù)懲罰下面說(shuō)法錯(cuò)誤的是()

答案:懲罰系數(shù)λ越小對(duì)線性模型的參數(shù)取值范圍壓縮得越厲害關(guān)于線性模型下面說(shuō)法錯(cuò)誤的是()

答案:線性模型的參數(shù)除了權(quán)重參數(shù)必須有偏置項(xiàng)PCA分析中可以通過(guò)那個(gè)指標(biāo)來(lái)幫助確定需要保留的前k個(gè)分量()

答案:累計(jì)方差貢獻(xiàn)率下面關(guān)于降維算法說(shuō)法錯(cuò)誤的是()。

答案:降維能改善欠擬合問(wèn)題與K-Means相比,基于密度的DBSCAN的優(yōu)點(diǎn)不包括()

答案:較低的計(jì)算復(fù)雜度在DBSCAN中,對(duì)噪聲點(diǎn)處理正確的是()

答案:噪點(diǎn)不屬于任何簇直接無(wú)視在DBSCAN算法中,對(duì)數(shù)據(jù)點(diǎn)類型的劃分中不包括()

答案:中心點(diǎn)關(guān)于k均值聚類算法下列說(shuō)法錯(cuò)誤的是()

答案:初始假設(shè)聚類中心點(diǎn)必須設(shè)置在真實(shí)中心點(diǎn)附近聚類中的簇與分類中的類的關(guān)系是()。

答案:不是一碼事,但實(shí)際應(yīng)用中有一定聯(lián)系有關(guān)聚類算法錯(cuò)誤的說(shuō)法是()

答案:對(duì)聚類問(wèn)題可以任選一種聚類算法移動(dòng)運(yùn)營(yíng)商根據(jù)用戶消費(fèi)的數(shù)據(jù),將用戶劃分為不同的群體,使用哪種機(jī)器學(xué)習(xí)方法比較合適()

答案:聚類分析為了提高集成學(xué)習(xí)的泛化性能,集成學(xué)習(xí)的弱學(xué)習(xí)器的多樣性可以通過(guò)哪兩個(gè)手段提高_(dá)___,____。

答案:改變訓(xùn)練樣本;改變模型訓(xùn)練參數(shù)集成學(xué)習(xí)的泛化性能可以通過(guò)哪兩個(gè)手段提高_(dá)___,____。

答案:降低個(gè)體學(xué)習(xí)器的泛化誤差;提高個(gè)體學(xué)習(xí)器的多樣性集成學(xué)習(xí)的弱分類器的組合策略有哪些____,____,____。

答案:相對(duì)多數(shù)投票法;絕對(duì)多數(shù)投票法;加權(quán)投票法集成學(xué)習(xí)的弱回歸器的組合策略有哪些____,____。

答案:簡(jiǎn)單平均法;加權(quán)平均法集成學(xué)習(xí)的弱學(xué)習(xí)器的構(gòu)造方式分為哪兩種____,____。

答案:并行構(gòu)造方式;串行構(gòu)造方式集成學(xué)習(xí)中由同類型的個(gè)體學(xué)習(xí)器組成的集成模型稱為_(kāi)___,并稱這些同類型的個(gè)體學(xué)習(xí)器為_(kāi)___。由不同類型的個(gè)體學(xué)習(xí)器組成的集成模型稱為_(kāi)___。

答案:同質(zhì)集成模型;基學(xué)習(xí)器;異質(zhì)集成模型集成學(xué)習(xí)中組成集成模型的性能一般的個(gè)體學(xué)習(xí)器又稱為_(kāi)___,組合成的高精度的集成模型又稱為_(kāi)___。

答案:弱學(xué)習(xí)器;強(qiáng)學(xué)習(xí)器隨機(jī)森林模型的2個(gè)隨機(jī)指的是()

答案:隨機(jī)選取樣本;隨機(jī)選取屬性下面哪些是串行構(gòu)造的集成學(xué)習(xí)算法()

答案:AdaBoost集成學(xué)習(xí);梯度提升決策樹(shù)下面哪些是并行構(gòu)造的集成學(xué)習(xí)算法()

答案:Bagging集成學(xué)習(xí);隨機(jī)森林下面對(duì)GBDT(梯度提升決策樹(shù))集成學(xué)習(xí)算法描述錯(cuò)誤的是()

答案:是AdaBoost算法的一種下列對(duì)AdaBoost集成學(xué)習(xí)算法的描述錯(cuò)誤的是()

答案:增加分類正確樣本的權(quán)重,降低分類錯(cuò)誤樣本的權(quán)重來(lái)提高分類器的準(zhǔn)確率下列關(guān)于隨機(jī)森林模型的描述錯(cuò)誤的是()

答案:只能構(gòu)建分類模型關(guān)于Bagging集成學(xué)習(xí)算法,下面說(shuō)法錯(cuò)誤的是()

答案:自助采樣法是指按一定的比例從n個(gè)樣本的數(shù)據(jù)集中隨機(jī)抽m個(gè)樣本通過(guò)將多個(gè)性能一般的模型組合來(lái)得到性能優(yōu)良的模型的技術(shù)稱為()

答案:集成學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)模型的正則化手段有哪些1.____2.____

答案:目標(biāo)函數(shù)中添加正則化項(xiàng);隨機(jī)失活(Dropout多層感知機(jī)神經(jīng)元的Sigmoid激活函數(shù)的作用有哪些1.____2.____

答案:可將原始數(shù)據(jù)非線性映射在另一個(gè)空間;;將輸出限制在(0,1關(guān)于反向傳播算法下面說(shuō)法錯(cuò)誤的是()

答案:反向傳播算法是指反饋神經(jīng)網(wǎng)絡(luò)的優(yōu)化算法多層感知機(jī)更新網(wǎng)絡(luò)權(quán)重參數(shù)的正確順序是什么()1.按照負(fù)梯度方向迭代更新權(quán)重,直至達(dá)到終止條件。2.把訓(xùn)練樣本輸入網(wǎng)絡(luò)進(jìn)行前向計(jì)算,得到每層神經(jīng)元輸出值和網(wǎng)絡(luò)最終的輸出值。3.隨機(jī)初始化權(quán)重。4.基于反向傳播算法,逐層求解各層權(quán)重相對(duì)于目標(biāo)

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論