下載本文檔
版權(quán)說(shuō)明:本文檔由用戶(hù)提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
機(jī)器學(xué)習(xí)實(shí)戰(zhàn)——基于Scikit-Learn智慧樹(shù)知到期末考試答案2024年機(jī)器學(xué)習(xí)實(shí)戰(zhàn)——基于Scikit-LearnSVM中的代價(jià)參數(shù)C表示什么?()
A:用到的核函數(shù)B:交叉驗(yàn)證的次數(shù)C:其余D:在分類(lèi)準(zhǔn)確性和模型復(fù)雜度之間的權(quán)衡答案:在分類(lèi)準(zhǔn)確性和模型復(fù)雜度之間的權(quán)衡關(guān)于各類(lèi)核函數(shù)的優(yōu)缺點(diǎn)說(shuō)法錯(cuò)誤的是:()。
A:多項(xiàng)式核需要多次特征轉(zhuǎn)換B:高斯核計(jì)算簡(jiǎn)單,不容易過(guò)擬合C:高斯核能夠應(yīng)對(duì)較為復(fù)雜的數(shù)據(jù)D:線性核計(jì)算簡(jiǎn)單,可解釋性強(qiáng)答案:高斯核計(jì)算簡(jiǎn)單,不容易過(guò)擬合?線性SVM和一般線性分類(lèi)器的區(qū)別主要是:()。
A:是否能處理線性不可分問(wèn)題B:訓(xùn)練誤差通常較低C:是否確保間隔最大化D:是否進(jìn)行了空間映射答案:是否進(jìn)行了空間映射以下關(guān)于決策樹(shù)原理介紹錯(cuò)誤的有()。
A:決策樹(shù)算法屬于無(wú)監(jiān)督學(xué)習(xí)B:決策樹(shù)生成過(guò)程中需要用到分割法C:決策樹(shù)決策過(guò)程從根節(jié)點(diǎn)開(kāi)始D:決策樹(shù)算法本質(zhì)上是貪心算法答案:決策樹(shù)算法屬于無(wú)監(jiān)督學(xué)習(xí)關(guān)于C4.5算法,錯(cuò)誤的是()。
A:C4.5算法采用基尼系數(shù)的大小來(lái)度量特征的各個(gè)劃分點(diǎn)B:C4.5算法最大的特點(diǎn)是克服了ID3對(duì)特征數(shù)目的偏重這一缺點(diǎn)C:C4.5算法可以處理非離散的數(shù)據(jù)D:C4.5算法引入悲觀剪枝策略進(jìn)行后剪枝答案:C4.5算法采用基尼系數(shù)的大小來(lái)度量特征的各個(gè)劃分點(diǎn)以下那種算法不是集成學(xué)習(xí)算法()
A:AdaBoostB:隨機(jī)森林C:決策樹(shù)D:XGBoost答案:決策樹(shù)以下關(guān)于隨機(jī)森林(RandomForest)說(shuō)法正確的是()。
A:隨機(jī)森林構(gòu)建決策樹(shù)時(shí),是無(wú)放回的選取訓(xùn)練數(shù)據(jù)B:隨機(jī)森林由若干決策樹(shù)組成,決策樹(shù)之間存在關(guān)聯(lián)性C:隨機(jī)森林算法容易陷入過(guò)擬合D:隨機(jī)森林學(xué)習(xí)過(guò)程分為選擇樣本、選擇特征、構(gòu)建決策樹(shù)、投票四個(gè)部分答案:隨機(jī)森林學(xué)習(xí)過(guò)程分為選擇樣本、選擇特征、構(gòu)建決策樹(shù)、投票四個(gè)部分?ID3算法的缺點(diǎn)不包括()。
A:沒(méi)有考慮缺失值B:信息增益準(zhǔn)則對(duì)可取值數(shù)目較多的特征有所偏好,類(lèi)似“編號(hào)”的特征其信息增益接近于1C:ID3沒(méi)有剪枝策略,容易過(guò)擬合D:既能用于處理離散分布的特征,也能用于連續(xù)分布的特征處理答案:既能用于處理離散分布的特征,也能用于連續(xù)分布的特征處理機(jī)器學(xué)習(xí)中做特征選擇時(shí),可能用到的方法有?()
A:A,B,CB:平均互信息C:卡方D:期望交叉熵E:信息增益答案:信息增益###卡方###平均互信息###期望交叉熵?以下關(guān)于決策樹(shù)特點(diǎn)分析的說(shuō)法錯(cuò)誤的有()。
A:算法自動(dòng)忽略了對(duì)模型沒(méi)有貢獻(xiàn)的屬性變量B:算法考慮了數(shù)據(jù)屬性之間的相關(guān)性C:推理過(guò)程容易理解,計(jì)算簡(jiǎn)單D:算法容易造成過(guò)擬合答案:算法考慮了數(shù)據(jù)屬性之間的相關(guān)性關(guān)于支持向量機(jī)中硬間隔和軟間隔的說(shuō)法錯(cuò)誤的是()。
A:硬間隔有利于消除模型的過(guò)擬合B:軟間隔有利于獲取更大的分類(lèi)間隔C:硬間隔要求所有數(shù)據(jù)分類(lèi)完全準(zhǔn)確,不允許出現(xiàn)錯(cuò)誤D:軟間隔允許一定的樣本分類(lèi)錯(cuò)誤答案:硬間隔有利于消除模型的過(guò)擬合?Adboost的優(yōu)點(diǎn)不包括()
A:可以用各種回歸分類(lèi)模型來(lái)構(gòu)建弱學(xué)習(xí)器,非常靈活B:分類(lèi)精度高C:不容易發(fā)生過(guò)擬合D:對(duì)異常點(diǎn)敏感,異常點(diǎn)會(huì)獲得較高權(quán)重答案:對(duì)異常點(diǎn)敏感,異常點(diǎn)會(huì)獲得較高權(quán)重以下關(guān)于剪枝操作說(shuō)法正確的是()。
A:C4.5采用的是基于代價(jià)函數(shù)的后剪枝B:ID3沒(méi)有剪枝策略C:CART采用的是悲觀策略的預(yù)剪枝D:其余答案:ID3沒(méi)有剪枝策略一般,k-NN最近鄰方法在()的情況下效果較好。
A:樣本呈團(tuán)狀分布B:樣本較少但典型性好C:樣本較多但典型性不好D:樣本呈鏈狀分布答案:樣本較多但典型性不好?在SVM中,margin的含義是()
A:損失誤差B:幅度C:差額D:間隔答案:間隔?C4.5選擇屬性用的是()。
A:信息熵B:交叉熵C:信息增益率D:信息增益答案:信息增益率下面關(guān)于隨機(jī)森林和梯度提升集成方法的說(shuō)法哪個(gè)是正確的?()
A:兩種方法都可以用來(lái)做回歸B:這兩種方法都可以用來(lái)做分類(lèi)C:隨機(jī)森林用來(lái)做回歸,梯度提升用來(lái)做分類(lèi)D:隨機(jī)森林用來(lái)做分類(lèi),梯度提升用來(lái)做回歸答案:兩種方法都可以用來(lái)做回歸###這兩種方法都可以用來(lái)做分類(lèi)()和()是分類(lèi)任務(wù)中最常用的兩種評(píng)估指標(biāo)。()
A:錯(cuò)誤率B:查準(zhǔn)率C:查全率D:準(zhǔn)確率(精度)答案:準(zhǔn)確率(精度)###錯(cuò)誤率按照學(xué)習(xí)方式的不同,可以將機(jī)器學(xué)習(xí)分為以下哪幾類(lèi)()。
A:半監(jiān)督學(xué)習(xí)B:無(wú)監(jiān)督學(xué)習(xí)C:有監(jiān)督學(xué)習(xí)D:自主學(xué)習(xí)答案:半監(jiān)督學(xué)習(xí)###無(wú)監(jiān)督學(xué)習(xí)###有監(jiān)督學(xué)習(xí)關(guān)于剪枝,以下算法正確的是:()。
A:決策樹(shù)剪枝的基本策略有預(yù)剪枝和后剪枝B:剪枝是防止過(guò)擬合的手段C:C4.5算法沒(méi)有剪枝操作D:ID3算法沒(méi)有剪枝操作答案:ID3算法沒(méi)有剪枝操作###決策樹(shù)剪枝的基本策略有預(yù)剪枝和后剪枝###剪枝是防止過(guò)擬合的手段以下那種算法需要對(duì)數(shù)據(jù)進(jìn)行歸一化或者標(biāo)準(zhǔn)化()。
A:線性回歸B:決策樹(shù)C:KNND:邏輯回歸答案:KNN###線性回歸###邏輯回歸隨機(jī)森林和Bagging算法沒(méi)有區(qū)別,只是將每個(gè)基學(xué)習(xí)器換做了決策樹(shù)算法。()
A:錯(cuò)B:對(duì)答案:錯(cuò)ID3算法只能用于處理離散分布的特征。()
A:錯(cuò)誤B:正確答案:正確超參數(shù)選擇不當(dāng),會(huì)對(duì)模型有較大的負(fù)面影響,所以在參數(shù)調(diào)整策略方面,所有超參數(shù)都同等重要。()
A:錯(cuò)B:對(duì)答案:錯(cuò)?SVM的數(shù)據(jù)需要?dú)w一化或者標(biāo)準(zhǔn)化。()
A:正確B:錯(cuò)誤答案:正確支持向量是最靠近決策表面的數(shù)據(jù)點(diǎn)。()
A:正確B:錯(cuò)誤答案:正確決策樹(shù)節(jié)點(diǎn)劃分指標(biāo)中信息增益越大越好。()
A:正確B:錯(cuò)誤答案:錯(cuò)誤正則化是為了防止模型過(guò)擬合而引入額外信息,對(duì)模型原有邏輯進(jìn)行外部干預(yù)和修正,從而提高模型的泛化能力。()
A:正確B:錯(cuò)誤答案:正確當(dāng)預(yù)測(cè)器盡可能互相獨(dú)立時(shí),集成方法的效果最優(yōu)。()
A:錯(cuò)誤B:正確答案:錯(cuò)誤?C4.5是通過(guò)代價(jià)復(fù)雜度剪枝。()
A:正確B:錯(cuò)誤答案:錯(cuò)誤對(duì)于PCA(主成分分析)轉(zhuǎn)化過(guò)的特征,樸素貝葉斯的”不依賴(lài)假設(shè)”總是成立,因?yàn)樗兄饕煞质钦坏?。(?/p>
A:對(duì)B:錯(cuò)答案:錯(cuò)監(jiān)督學(xué)習(xí)的學(xué)習(xí)數(shù)據(jù)既有特征(feature),也有標(biāo)簽(label)。()
A:正確B:錯(cuò)誤答案:正確?Bagging算法中不要求個(gè)體學(xué)習(xí)器都采用同種算法。()
A:錯(cuò)B:對(duì)答案:對(duì)關(guān)于自助法,以下說(shuō)法錯(cuò)誤的是()。
A:集成的方差增高B:bagging比pasting的偏差略高C:預(yù)測(cè)器之間的關(guān)聯(lián)度更低D:給每個(gè)預(yù)測(cè)器的訓(xùn)練子集引入了更高的多樣性答案:AI參考:關(guān)于自助法,以下說(shuō)法錯(cuò)誤的是選項(xiàng)A:集成的方差增高。\n\n自助法(bootstrap)是一種用于估計(jì)統(tǒng)計(jì)量的抽樣方法,它通過(guò)有放回地從原始數(shù)據(jù)集中抽取樣本,重新構(gòu)造一批新的數(shù)據(jù)集,然后重復(fù)這個(gè)過(guò)程來(lái)獲得一組樣本數(shù)據(jù)。通過(guò)這種方式,原始數(shù)據(jù)的偏差被縮小了,但是也帶來(lái)了兩個(gè)問(wèn)題:樣本數(shù)量下降和方差增大。因此,選項(xiàng)A是錯(cuò)誤的。其他選項(xiàng)B、C、D都是關(guān)于自助法的正確說(shuō)法。\n\nBaggining(bagging)是一種基于自助法的集成學(xué)習(xí)方法,通過(guò)在原始數(shù)據(jù)集上多次抽樣,減少模型的偏差,同時(shí)提高模型的方差穩(wěn)定性。而Pasting(pasting)是另一種基于自助法的集成學(xué)習(xí)方法,通過(guò)減少模型之間的相關(guān)性來(lái)提高模型的性能。\n\n預(yù)測(cè)器之間的關(guān)聯(lián)度更低和給每個(gè)預(yù)測(cè)器的訓(xùn)練子集引入了更高的多樣性都是自助法的優(yōu)點(diǎn),可以降低過(guò)擬合的風(fēng)險(xiǎn),提高模型的泛化能力。因此,選項(xiàng)B、C、D都是正確的。'在一個(gè)1,000,000維的超立方體中隨機(jī)抽取兩點(diǎn),其平均距離為()。
A:無(wú)法計(jì)算B:0.66C:0.52D:408.25答案:AI參考:正確答案是C:0.52。\n在一個(gè)1,000,000維的超立方體中隨機(jī)抽取兩點(diǎn),其平均距離為所有可能距離的平均值,即所有可能距離的幾何平均值。由于超立方體是一個(gè)n維空間,因此平均距離為1/n,即0.52。因此,正確答案是C。'隨機(jī)森林在書(shū)的生長(zhǎng)上引入了更多的隨機(jī)性,體現(xiàn)在()。
A:分裂節(jié)點(diǎn)時(shí)搜索最好的特征B:在一個(gè)隨機(jī)生成的特征子集里搜索最好的特征C:決策樹(shù)的多樣性降低D:ABC答案:AI參考:隨機(jī)森林在書(shū)的生長(zhǎng)上引入了更多的隨機(jī)性,體現(xiàn)在在一個(gè)隨機(jī)生成的特征子集里搜索最好的特征。隨機(jī)森林是在決策樹(shù)的基礎(chǔ)上構(gòu)建的,每個(gè)決策樹(shù)都是基于隨機(jī)特征子集進(jìn)行分裂的,這樣就可以引入更多的隨機(jī)性,從而增加了模型的多樣性。因此,正確答案是B:在一個(gè)隨機(jī)生成的特征子集里搜索最好的特征。'集成學(xué)習(xí)中流行的幾種集成方法,包括()。
A:SVMB:stackingC:baggingD:boosting答案:AI參考:集成學(xué)習(xí)中流行的幾種集成方法包括:Bagging,Boosting,Stacking。所以答案是:C:Bagging、D:boosting。\n\n其中,bagging是通過(guò)平均許多基學(xué)習(xí)器產(chǎn)生的預(yù)測(cè)結(jié)果來(lái)提高模型的穩(wěn)定性和精度的。boosting則是通過(guò)逐步改進(jìn)模型來(lái)提高模型的精度。而stacking則是將兩種或多種基學(xué)習(xí)器結(jié)合在一起,用于解決復(fù)雜的問(wèn)題。\n\n因此,答案為C和D。'軟間隔有利于獲取更大的分類(lèi)間隔。()
A:對(duì)B:錯(cuò)答案:AI參考:答案是B:錯(cuò)。軟間隔算法通常會(huì)降低分類(lèi)間隔,因?yàn)樗谟?jì)算距離時(shí)考慮了
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶(hù)所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶(hù)上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶(hù)上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶(hù)因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 2025年度個(gè)人反擔(dān)保合同規(guī)范范本-設(shè)備租賃專(zhuān)用2篇
- 房地產(chǎn)市場(chǎng)調(diào)查與分析
- 2025年度鋼構(gòu)工程風(fēng)險(xiǎn)評(píng)估與控制合同
- 小學(xué)生數(shù)學(xué)思維能力的提升方法
- 金融市場(chǎng)的變化與對(duì)公客戶(hù)的應(yīng)對(duì)策略
- 二零二五年度蟲(chóng)草產(chǎn)品研發(fā)與市場(chǎng)拓展合同4篇
- 二零二五年度蟲(chóng)草收購(gòu)與銷(xiāo)售一體化合同4篇
- 2025年度環(huán)保設(shè)施建設(shè)合同履行的環(huán)境治理?yè)?dān)保協(xié)議3篇
- 2025年度個(gè)人旅游預(yù)付款延期退還協(xié)議4篇
- 跨領(lǐng)域?qū)W生綜合素養(yǎng)提升的實(shí)踐探索
- 危險(xiǎn)品倉(cāng)儲(chǔ)危險(xiǎn)廢物處置與管理考核試卷
- 2024版汽車(chē)融資擔(dān)保合同范本版B版
- 浙江寧波鎮(zhèn)海區(qū)2025屆中考生物對(duì)點(diǎn)突破模擬試卷含解析
- 湖南省長(zhǎng)沙市2025年新高考適應(yīng)性考試生物學(xué)模擬試題(含答案)
- 工業(yè)自動(dòng)化設(shè)備維護(hù)保養(yǎng)方案
- 《中醫(yī)心理學(xué)》課件
- envi二次開(kāi)發(fā)素材包-idl培訓(xùn)
- 2022年上海市初中語(yǔ)文課程終結(jié)性評(píng)價(jià)指南
- 醫(yī)院手術(shù)室醫(yī)院感染管理質(zhì)量督查評(píng)分表
- 心內(nèi)電生理導(dǎo)管及器械
- 保潔服務(wù)崗位檢查考核評(píng)分標(biāo)準(zhǔn)
評(píng)論
0/150
提交評(píng)論