機(jī)器學(xué)習(xí)(山東聯(lián)盟)智慧樹知到答案章節(jié)測(cè)試2023年山東財(cái)經(jīng)大學(xué)_第1頁(yè)
機(jī)器學(xué)習(xí)(山東聯(lián)盟)智慧樹知到答案章節(jié)測(cè)試2023年山東財(cái)經(jīng)大學(xué)_第2頁(yè)
機(jī)器學(xué)習(xí)(山東聯(lián)盟)智慧樹知到答案章節(jié)測(cè)試2023年山東財(cái)經(jīng)大學(xué)_第3頁(yè)
機(jī)器學(xué)習(xí)(山東聯(lián)盟)智慧樹知到答案章節(jié)測(cè)試2023年山東財(cái)經(jīng)大學(xué)_第4頁(yè)
機(jī)器學(xué)習(xí)(山東聯(lián)盟)智慧樹知到答案章節(jié)測(cè)試2023年山東財(cái)經(jīng)大學(xué)_第5頁(yè)
已閱讀5頁(yè),還剩13頁(yè)未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

第一章測(cè)試對(duì)西瓜的成熟度進(jìn)行預(yù)測(cè)得到結(jié)果為0.51,這屬于()學(xué)習(xí)任務(wù)。

A:回歸

B:分類

C:聚類

D:其余選項(xiàng)都不是

答案:A在學(xué)習(xí)過(guò)程中,X表示數(shù)據(jù)集,Y是所有標(biāo)記的集合,也稱為()。

A:輸出空間

B:函數(shù)

C:樣本集合

D:屬性集合

答案:A機(jī)器學(xué)習(xí)算法在學(xué)習(xí)過(guò)程中可能獲得多個(gè)不同的模型,在解決“什么樣的模型更好”這一問(wèn)題時(shí)遵循“若有多個(gè)假設(shè)與觀察一致,則選最簡(jiǎn)單的那個(gè)”,即()原則。

A:里氏替換

B:迪米特法則

C:奧卡姆剃刀

D:沒(méi)有免費(fèi)的午餐

答案:C機(jī)器學(xué)習(xí)是整個(gè)人工智能的核心,機(jī)器學(xué)習(xí)算法的特征之一就是()。

A:數(shù)據(jù)

B:類別

C:模型

D:特征

答案:C模型的泛化能力是指

A:適用于訓(xùn)練集樣本的能力

B:適用于新樣本的能力

C:適用于測(cè)試集樣本的能力

D:適用于驗(yàn)證集樣本的能力

答案:B下列關(guān)于學(xué)習(xí)算法的說(shuō)法正確的是

A:要談?wù)撍惴ǖ南鄬?duì)優(yōu)劣,必須要針對(duì)具體的學(xué)習(xí)問(wèn)題

B:學(xué)習(xí)算法必須有某種偏好,才能產(chǎn)出它認(rèn)為“正確”的模型

C:在某些問(wèn)題上表現(xiàn)好的學(xué)習(xí)算法,在另一些問(wèn)題上卻可能不盡人意

D:學(xué)習(xí)算法自身的歸納偏好與問(wèn)題是否相配通常并不起決定性的作用

答案:ABC獲得假設(shè)(模型)空間時(shí),從特殊到一般的過(guò)程屬于

A:泛化

B:歸納

C:特化

D:演繹

答案:AB機(jī)器學(xué)習(xí)可以應(yīng)用在下列哪些領(lǐng)域()

A:商業(yè)營(yíng)銷

B:自動(dòng)駕駛汽車

C:搜索引擎

D:天氣預(yù)報(bào)

答案:ABCD根據(jù)訓(xùn)練數(shù)據(jù)是否擁有標(biāo)記信息,學(xué)習(xí)任務(wù)可以分為()。

A:回歸

B:聚類

C:無(wú)監(jiān)督

D:監(jiān)督

E:分類

F:半監(jiān)督

答案:CDF演繹是從一般到特殊的”特化”過(guò)程,即從基礎(chǔ)原理推演出具體狀況

A:對(duì)

B:錯(cuò)

答案:A分類預(yù)測(cè)的是離散值

A:錯(cuò)

B:對(duì)

答案:B分類和回歸是無(wú)監(jiān)督學(xué)習(xí)

A:錯(cuò)

B:對(duì)

答案:A奧卡姆剃刀原則:即“若有多個(gè)假設(shè)與觀察一致,選最簡(jiǎn)單的一個(gè)”。

A:錯(cuò)

B:對(duì)

答案:B實(shí)際應(yīng)用中,“一個(gè)模型肯定比另一個(gè)模型具有更強(qiáng)的泛化能力”的這種情況是不存在的。

A:對(duì)

B:錯(cuò)

答案:A機(jī)器學(xué)習(xí)的目標(biāo)就是獲得與訓(xùn)練集一致的假設(shè)。

A:對(duì)

B:錯(cuò)

答案:A第二章測(cè)試測(cè)試性能隨著測(cè)試集的變化而變化

A:錯(cuò)

B:對(duì)

答案:B以下關(guān)于回歸的說(shuō)法中,不正確的是()。

A:回歸是一種預(yù)測(cè)建模任務(wù)

B:回歸也是一種分類

C:回歸的目標(biāo)屬性是離散的

D:回歸是根據(jù)歷史數(shù)據(jù)擬合以函數(shù)將屬性集映射到相應(yīng)的值集

答案:C下列關(guān)于查全率和查準(zhǔn)率的說(shuō)法哪種正確()。

A:查全率和查準(zhǔn)率存在著互逆關(guān)系

B:查全率和查準(zhǔn)率成正比

C:查全率和查準(zhǔn)率成反比

D:好的模型可以做到查全率和查準(zhǔn)率都達(dá)到100%

答案:A關(guān)于性能比較和模型選擇,下列說(shuō)法正確的是()。

A:測(cè)試性能隨著測(cè)試集的變化而變化

B:測(cè)試性能等于網(wǎng)絡(luò)的泛化性能

C:模型的選擇可以使用直接選取相應(yīng)評(píng)估方法在相應(yīng)度量下比較大小的方法

D:相同的參數(shù)的機(jī)器學(xué)習(xí)算法在同一測(cè)試集下多次運(yùn)行結(jié)果相同

答案:A模型的評(píng)估方法不包括()。

A:交叉驗(yàn)證法

B:留出法

C:自助法

D:計(jì)分法

答案:D模型評(píng)估方法中留出法的缺點(diǎn)是()。

A:改變了初始數(shù)據(jù)集的分布,引入估計(jì)偏差

B:樣本利用率低

C:只能得到一個(gè)評(píng)估值。

D:在數(shù)據(jù)集比較大的時(shí)候,訓(xùn)練M個(gè)模型的計(jì)算開銷可能是難以忍受的

答案:C選擇模型的依據(jù)包括()。

A:泛化性能

B:時(shí)間開銷

C:可解釋性

D:存儲(chǔ)開銷

答案:ABCD以下哪些方法可以用于單個(gè)學(xué)習(xí)器性能的比較()。

A:二項(xiàng)檢驗(yàn)

B:McNemar檢驗(yàn)

C:Friedman檢驗(yàn)

D:t-檢驗(yàn)

答案:AD模型的泛化性能由()決定。

A:數(shù)據(jù)集的劃分

B:學(xué)習(xí)算法的能力

C:學(xué)習(xí)任務(wù)本身的難度

D:數(shù)據(jù)的充分性

答案:BCD解決過(guò)擬合的方案包括()。

A:選擇合適的迭代次數(shù)停止模型的學(xué)習(xí)

B:為模型添加其他特征項(xiàng)

C:引入正則項(xiàng)

D:增加模型參數(shù),調(diào)高模型復(fù)雜度

答案:AC以下哪些是可能導(dǎo)致模型過(guò)擬合的原因()

A:模型學(xué)習(xí)到了樣本的一般性質(zhì)

B:訓(xùn)練集和測(cè)試集特征分布不一致

C:學(xué)習(xí)迭代次數(shù)過(guò)多

D:訓(xùn)練集數(shù)量級(jí)和模型復(fù)雜度不匹配,訓(xùn)練集的數(shù)量級(jí)小于模型的復(fù)雜度

答案:BCD過(guò)擬合不可以徹底避免。

A:錯(cuò)

B:對(duì)

答案:B回歸任務(wù)最常用的性能度量是“查準(zhǔn)率和查全率”

A:對(duì)

B:錯(cuò)

答案:B訓(xùn)練數(shù)據(jù)較少時(shí)更容易發(fā)生欠擬合

A:對(duì)

B:錯(cuò)

答案:A方差度量了學(xué)習(xí)算法期望預(yù)測(cè)與真實(shí)結(jié)果的偏離程度

A:對(duì)

B:錯(cuò)

答案:B第三章測(cè)試線性回歸目的是學(xué)得一個(gè)()以盡可能準(zhǔn)確地預(yù)測(cè)實(shí)值輸出標(biāo)記

A:對(duì)數(shù)模型

B:多項(xiàng)式模型

C:線性模型

D:指數(shù)模型

答案:C線性回歸模型中,聯(lián)系函數(shù)g(?)為對(duì)數(shù)幾率函數(shù)ln(y/(1-y))時(shí),該線性模型成為()

A:指數(shù)線性回歸

B:曲線線性回歸

C:對(duì)數(shù)幾率回歸

D:對(duì)數(shù)線性回歸

答案:C線性判別分析可通過(guò)該投影減小樣本點(diǎn)的維數(shù),且投影過(guò)程中使用了類別信息。因此,線性判別分析也常被視為一種經(jīng)典的()

A:監(jiān)督分類技術(shù)

B:監(jiān)督降維技術(shù)

C:降維技術(shù)

D:分類技術(shù)

答案:B解決類別不平衡的方法包括()

A:過(guò)采樣

B:去除正例樣本

C:閾值移動(dòng)

D:欠采樣

答案:ACD在線性模型的基礎(chǔ)上,引入層級(jí)結(jié)構(gòu)或高維映射,構(gòu)成非線性模型。因此,非線性模型可以轉(zhuǎn)換為線性模型。

A:對(duì)

B:錯(cuò)

答案:A線性判別分析(LDA)設(shè)法將樣例投影到一條直線上,使得同類樣例的投影點(diǎn)盡可能接近

A:對(duì)

B:錯(cuò)

答案:A分類學(xué)習(xí)任務(wù)中,若不同類別的訓(xùn)練樣本數(shù)目差別很大時(shí),對(duì)學(xué)習(xí)過(guò)程沒(méi)有明顯影響

A:錯(cuò)

B:對(duì)

答案:A線性模型學(xué)得的參數(shù)ω直觀地表達(dá)了各屬性在預(yù)測(cè)中的重要性,因此,該模型具有較好的可解釋性。

A:錯(cuò)

B:對(duì)

答案:B線性判別分析在對(duì)新樣例進(jìn)行分類時(shí),將其投影到曲線上,再根據(jù)投影點(diǎn)的位置來(lái)確定新樣本的類別。

A:錯(cuò)

B:對(duì)

答案:A基于均方誤差最小化來(lái)進(jìn)行模型求解的方法,稱為“最小二乘法”。

A:對(duì)

B:錯(cuò)

答案:A線性判別分析模型中,同類樣本的投影點(diǎn)盡可能近,即同類樣本的協(xié)方差盡可能小

A:錯(cuò)

B:對(duì)

答案:B在分類學(xué)習(xí)任務(wù)中,若正例遠(yuǎn)少于反例時(shí),可以通過(guò)增加一些正例解決類別不平衡問(wèn)題。

A:錯(cuò)

B:對(duì)

答案:B線性回歸目的是學(xué)得多項(xiàng)式模型以盡可能準(zhǔn)確地預(yù)測(cè)實(shí)值輸出標(biāo)記。

A:對(duì)

B:錯(cuò)

答案:B單一屬性的線性回歸目標(biāo)函數(shù)為f(x)=ωx+b使得min(f(x)–y)2

A:錯(cuò)

B:對(duì)

答案:B常用的廣義線性回歸有單位躍階函數(shù)、對(duì)數(shù)線性回歸、對(duì)數(shù)幾率回歸

A:錯(cuò)

B:對(duì)

答案:B第四章測(cè)試在屬性劃分中,信息增益越大,結(jié)點(diǎn)的純度()

A:變?yōu)榱?/p>

B:不變

C:提升越大

D:降低越快

答案:C決策樹算法的泛化性能提升,則驗(yàn)證集精度()

A:提高

B:不變

C:降低

D:降為零

答案:A多變量決策樹中的非葉子節(jié)點(diǎn)是對(duì)()屬性的線性組合進(jìn)行測(cè)試。

A:零個(gè)

B:一個(gè)

C:若干個(gè)

D:所有

答案:C決策樹的結(jié)點(diǎn)包含()

A:結(jié)點(diǎn)

B:內(nèi)部結(jié)點(diǎn)

C:根結(jié)點(diǎn)

D:葉結(jié)點(diǎn)

答案:BCD決策樹學(xué)習(xí)算法中,預(yù)留一部分?jǐn)?shù)據(jù)用作“驗(yàn)證集”,進(jìn)行性能評(píng)估,決定是否剪枝。

A:對(duì)

B:錯(cuò)

答案:A決策樹模型中,隨著劃分過(guò)程不斷進(jìn)行,我們希望結(jié)點(diǎn)的“純度”越來(lái)越小。

A:對(duì)

B:錯(cuò)

答案:B決策樹學(xué)習(xí)的目的是為了產(chǎn)生一棵泛化能力強(qiáng),即處理未見示例能力強(qiáng)的決策樹

A:對(duì)

B:錯(cuò)

答案:A決策樹學(xué)習(xí)算法中,屬性a的信息增益越大,則使用該屬性進(jìn)行劃分所獲得的“純度提升”越大。

A:對(duì)

B:錯(cuò)

答案:A決策樹學(xué)習(xí)算法中,隨著劃分過(guò)程不斷進(jìn)行,我們希望決策樹的分支結(jié)點(diǎn)所包含的樣本盡可能屬于不同類別。

A:對(duì)

B:錯(cuò)

答案:B基尼指數(shù),反映了從D中隨機(jī)抽取兩個(gè)樣本,其類別標(biāo)記一致的概率

A:錯(cuò)

B:對(duì)

答案:A預(yù)剪枝策略降低了過(guò)擬合風(fēng)險(xiǎn)。

A:錯(cuò)

B:對(duì)

答案:B基尼值可以度量樣本集合的純度。

A:錯(cuò)

B:對(duì)

答案:B現(xiàn)實(shí)學(xué)習(xí)任務(wù)中,常會(huì)遇到連續(xù)屬性,其可取值數(shù)目不再有限,可以使用離散化技術(shù)將連續(xù)屬性轉(zhuǎn)化為離散屬性

A:錯(cuò)

B:對(duì)

答案:B剪枝策略是對(duì)付“過(guò)擬合”的主要手段,即可通過(guò)主動(dòng)去掉一些分支來(lái)降低過(guò)擬合的風(fēng)險(xiǎn)。

A:對(duì)

B:錯(cuò)

答案:A第五章測(cè)試若兩類模式是線性可分的,即存在一個(gè)線性超平面能將它們分開,則感知機(jī)的學(xué)習(xí)過(guò)程一定會(huì)收斂。

A:錯(cuò)

B:對(duì)

答案:B多隱層感知機(jī)比單隱層感知機(jī)的表達(dá)能力強(qiáng)

A:對(duì)

B:錯(cuò)

答案:B誤差逆?zhèn)鞑ニ惴ㄊ瞧褡畛晒Φ纳窠?jīng)網(wǎng)絡(luò)學(xué)習(xí)算法。

A:對(duì)

B:錯(cuò)

答案:A基于梯度的搜索是使用最廣泛的參數(shù)尋優(yōu)方法,若誤差函數(shù)在當(dāng)前點(diǎn)的梯度為零,則已達(dá)到全局最小。

A:對(duì)

B:錯(cuò)

答案:B多層感知機(jī)表示異或邏輯時(shí)最少需要()個(gè)隱含層(僅考慮二元輸入)

A:1

B:2

C:4

D:3

答案:BBP算法基于()策略對(duì)參數(shù)進(jìn)行調(diào)整

A:最小化誤差

B:梯度下降

C:梯度上升

D:誤差逆?zhèn)鞑?/p>

答案:BBP神經(jīng)網(wǎng)絡(luò)由于其強(qiáng)大的表示能力,經(jīng)常遭遇()問(wèn)題,即訓(xùn)練誤差持續(xù)下降,但測(cè)試誤差卻可能上升。

A:欠擬合

B:梯度消失

C:不收斂

D:過(guò)擬合

答案:D在現(xiàn)實(shí)任務(wù)中,人們常采用以下策略來(lái)試圖跳出局部極小,進(jìn)而接近全局最小

A:隨機(jī)梯度下降

B:遺傳算法

C:模擬退火

D:梯度下降

答案:ABC神經(jīng)網(wǎng)絡(luò)中的激活函數(shù)可以采用線性函數(shù)

A:對(duì)

B:錯(cuò)

答案:B只擁有一層功能神經(jīng)元(能進(jìn)行激活函數(shù)處理)的感知機(jī)學(xué)習(xí)能力依然很強(qiáng),能解決異或這樣的非線性可分問(wèn)題。

A:錯(cuò)

B:對(duì)

答案:A第六章測(cè)試線性可分支持向量機(jī)是一種()模型

A:二分類

B:邏輯回歸

C:多分類

D:線性回歸

答案:A支持向量機(jī)的學(xué)習(xí)策略是()

A:訓(xùn)練誤差最小

B:間隔最小

C:測(cè)試誤差最小

D:間隔最大

答案:D支持向量機(jī)的求解通常采用()來(lái)求解

A:最小誤差法

B:二次規(guī)劃算法

C:最大間隔法

D:線性規(guī)劃算法

答案:B當(dāng)訓(xùn)練樣本線性不可分時(shí)可采用()來(lái)緩解和解決

A:訓(xùn)練誤差最小

B:測(cè)試誤差最小

C:軟間隔

D:核函數(shù)

答案:CD為了更好地解決線性不可分問(wèn)題,我們常常需要擴(kuò)大可選函數(shù)的范圍。

A:對(duì)

B:錯(cuò)

答案:A支持向量機(jī)的經(jīng)驗(yàn)風(fēng)險(xiǎn)描述了模型的某些性質(zhì)

A:錯(cuò)

B:對(duì)

答案:A在空間上線性可分的兩類點(diǎn),分別向SVM分類的超平面上做投影,這些點(diǎn)在超平面上的投影仍然是線性可分的

A:錯(cuò)

B:對(duì)

答案:A引入軟間隔是為了允許支持向量機(jī)在一些樣本上出錯(cuò)。

A:對(duì)

B:錯(cuò)

答案:A核函數(shù)的引入是將原始空間中不可分的訓(xùn)練樣本映射到高維的特征空間后變得可分。

A:錯(cuò)

B:對(duì)

答案:B訓(xùn)練樣本集越大,SVM的分類結(jié)果越好

A:對(duì)

B:錯(cuò)

答案:B第七章測(cè)試在樣本X上的條件風(fēng)險(xiǎn)是指將一個(gè)真實(shí)標(biāo)記為Cj的樣本x分類為ci所產(chǎn)生的期望損失。

A:對(duì)

B:錯(cuò)

答案:A極大似然估計(jì)是試圖在θc所有可能的取值中,找到一個(gè)能使數(shù)據(jù)出現(xiàn)的“可能性”的最大的值。

A:錯(cuò)

B:對(duì)

答案:B拉普拉斯修正沒(méi)能避免因訓(xùn)練集樣本不充分而導(dǎo)致概率估值為0的問(wèn)題。

A:對(duì)

B:錯(cuò)

答案:B貝葉斯網(wǎng)學(xué)習(xí)的首要任務(wù)就是通過(guò)對(duì)訓(xùn)練樣本“計(jì)數(shù)”,估計(jì)出每個(gè)結(jié)點(diǎn)的條件概率表。

A:對(duì)

B:錯(cuò)

答案:B通過(guò)已知變量觀測(cè)值來(lái)推測(cè)待推測(cè)查詢變量的過(guò)程稱為“推斷”

A:對(duì)

B:錯(cuò)

答案:A貝葉斯網(wǎng)的近似推斷常使用吉布斯采樣(Gibbssampling)來(lái)完成,吉布斯采樣可以看做,每一步僅依賴于前一步的狀態(tài),這是一個(gè)“馬爾可夫鏈”。

A:對(duì)

B:錯(cuò)

答案:A對(duì)分類任務(wù)來(lái)說(shuō),在所有相關(guān)概率都已知的理想情況下,()考慮如何基于這些概率和誤判損失來(lái)選擇最優(yōu)的類別標(biāo)記。

A:貝葉斯決策論

B:決策樹

C:聚類

D:支持向量機(jī)

答案:A樸素貝葉斯分類器假設(shè)所有屬性相互獨(dú)立,其訓(xùn)練過(guò)程就成了基于訓(xùn)練集D來(lái)估計(jì)類先驗(yàn)概率P(c),并估計(jì)()。

A:條件概率P(x|c)

B:每個(gè)屬性的條件概率P(xi|c)

C:概率P(x)

答案:B為了適當(dāng)考慮一部分屬性間的相互依賴信息,從而不需要進(jìn)行完全聯(lián)合概率計(jì)算,又不至于徹底忽略了比較強(qiáng)的熟悉依賴關(guān)系,這種分類器是()。

A:貝葉斯網(wǎng)

B:EM算法

C:半樸素貝葉斯分類器

D:樸素貝葉斯分類器

答案:C一個(gè)貝葉斯網(wǎng)由結(jié)構(gòu)和參數(shù)兩部分組成,結(jié)構(gòu)是一個(gè)(),每個(gè)節(jié)點(diǎn)對(duì)應(yīng)個(gè)屬性,若兩屬性有直接依賴關(guān)系,則它們由一條邊連接起來(lái),參數(shù)定量描述這種依賴關(guān)系。

A:有向無(wú)環(huán)圖

B:無(wú)向無(wú)環(huán)圖

C:有向圖

D:無(wú)向圖

答案:A第八章測(cè)試Boosting,個(gè)體學(xué)習(xí)器存在強(qiáng)依賴關(guān)系,逐個(gè)生成基學(xué)習(xí)器,每次調(diào)整訓(xùn)練數(shù)據(jù)的樣本分布

A:錯(cuò)

B:對(duì)

答案:B加權(quán)平均法的權(quán)重,一般是從訓(xùn)練數(shù)據(jù)中學(xué)習(xí)而得,規(guī)模比較大的集成,要學(xué)習(xí)的權(quán)重比較多,較容易導(dǎo)致欠擬合。

A:錯(cuò)

B:對(duì)

答案:A分歧代表了個(gè)體學(xué)習(xí)器在樣本x上的不一致性。

A:錯(cuò)

B:對(duì)

答案:B假設(shè)集成通過(guò)()結(jié)合T個(gè)分類器,若有超過(guò)半數(shù)的基分類器正確則分類就正確。

A:簡(jiǎn)單平均法

B:學(xué)習(xí)法

C:加權(quán)投票法

D:簡(jiǎn)單投票法

答案:DBoosting算法關(guān)注降低偏差,可對(duì)泛化性能()的學(xué)習(xí)器,構(gòu)造出很()的集成。

A:相對(duì)強(qiáng),弱

B:相對(duì)強(qiáng),強(qiáng)

C:相對(duì)弱,弱

D:相對(duì)弱,強(qiáng)

答案:DBagging是并行式集成學(xué)習(xí)的最著名的代表,給定訓(xùn)練數(shù)據(jù)集,采用()方法采樣數(shù)據(jù)。

A:交叉驗(yàn)證法

B:留出法

C:自主采樣

答案:C若同時(shí)有多個(gè)標(biāo)記獲最高票,則從中隨機(jī)選取一個(gè),該結(jié)合策略是()。

A:相對(duì)多數(shù)投票法

B:加權(quán)投票法

C:絕對(duì)多數(shù)投票法

D:簡(jiǎn)單平均法

答案:A對(duì)基決策樹的每個(gè)結(jié)點(diǎn),首先,從該結(jié)點(diǎn)的屬性集合中,隨機(jī)選擇一個(gè)包含k個(gè)屬性的子集。然后,從這個(gè)子集中,選擇一個(gè)最優(yōu)屬性,用于劃分。該方法是()。

A:隨機(jī)森林

B:傳統(tǒng)決策樹

C:AdaBoost

D:Boosting方法

答案:A隨機(jī)改變一些訓(xùn)練樣本的標(biāo)記;將多分類任務(wù),拆解為一系列二分類任務(wù),來(lái)訓(xùn)練基學(xué)習(xí)器,這屬于()。

A:算法參數(shù)擾動(dòng)

B:輸入屬性擾動(dòng)

C:輸出表示擾動(dòng)

D:數(shù)據(jù)樣本擾動(dòng)

答案:C要獲得好的集成,個(gè)體學(xué)習(xí)器應(yīng)滿足()。

A:學(xué)習(xí)器不能太差

B:學(xué)習(xí)器應(yīng)該不同

C:學(xué)習(xí)器應(yīng)該相同

D:學(xué)習(xí)器不需要太好

答案:AB第九章測(cè)試無(wú)監(jiān)督學(xué)習(xí)是指訓(xùn)練樣本的標(biāo)記信息是(),目標(biāo)是通過(guò)對(duì)()標(biāo)記訓(xùn)練樣本的學(xué)習(xí)來(lái)揭示數(shù)據(jù)內(nèi)在的性質(zhì)及規(guī)律,為進(jìn)一步的數(shù)據(jù)分析提供基礎(chǔ)

A:部分未知,部分無(wú)

B:部分已知,部分有

C:未知,無(wú)

D:已知,有

答案:C常用的聚類距離計(jì)算采用()。

A:閔可夫斯基

B:余弦距離

C:流形距離

D:馬氏距離

答案:A懶惰學(xué)習(xí)是指在訓(xùn)練階段(),訓(xùn)練時(shí)間開銷為零,待收到測(cè)試樣本后再進(jìn)行處理。

A:對(duì)訓(xùn)練樣本進(jìn)行學(xué)習(xí)

B:對(duì)訓(xùn)練樣本進(jìn)行保存

C:改變訓(xùn)練樣本

D:對(duì)訓(xùn)練樣本不進(jìn)行操作

答案:B聚類的基本目標(biāo)是()

A:簇內(nèi)相似度高

B:簇間相似度高

C:簇間相似度低

D:簇內(nèi)相似度低

答案:AC聚類性能度量大致有兩類指標(biāo):外部指標(biāo)和內(nèi)部指標(biāo)。

A:錯(cuò)

B:對(duì)

答案:B常見的原型聚類方法:K均值聚類、學(xué)習(xí)向量量化和密度聚類。

A:錯(cuò)

B:對(duì)

答案:A在訓(xùn)練階段就對(duì)樣本進(jìn)行學(xué)習(xí)處理的方法是急切學(xué)習(xí)。

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論