模式識別知到智慧樹章節(jié)測試課后答案2024年秋北京航空航天大學(xué)_第1頁
模式識別知到智慧樹章節(jié)測試課后答案2024年秋北京航空航天大學(xué)_第2頁
模式識別知到智慧樹章節(jié)測試課后答案2024年秋北京航空航天大學(xué)_第3頁
模式識別知到智慧樹章節(jié)測試課后答案2024年秋北京航空航天大學(xué)_第4頁
免費預(yù)覽已結(jié)束,剩余6頁可下載查看

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

模式識別知到智慧樹章節(jié)測試課后答案2024年秋北京航空航天大學(xué)第一章單元測試

新生兒目視識別客觀事物的過程()。

A:識別、分類、學(xué)習(xí)B:分類、識別、學(xué)習(xí)C:學(xué)習(xí)、識別、分類D:學(xué)習(xí)、分類、識別

答案:學(xué)習(xí)、分類、識別模式識別領(lǐng)域主要研究的兩個方向是()

A:聽覺B:嗅覺C:觸覺D:視覺

答案:聽覺;視覺人工智能是模式識別的一個重要分支。()

A:對B:錯

答案:錯在所有樣本構(gòu)成的空間上定義的子集,同一類的樣本可以屬于不同的模式()

A:錯B:對

答案:錯用來體現(xiàn)類別之間相互區(qū)別的某個或某些數(shù)學(xué)測度叫作特征,測度的值稱為特征值。()

A:錯B:對

答案:對以下說法錯誤的是()

A:特征選擇是采用一定的算法對原始特征進行加工B:特征提取等同于特征選擇C:特征提取是采用一定的算法對原始特征進行加工D:原始特征是對樣本進行觀測和預(yù)處理而得到的特征

答案:特征提取等同于特征選擇有監(jiān)督模式識別的一般步驟包括()

A:特征提取與選擇B:原始特征獲取C:分類器設(shè)計D:分類決策

答案:特征提取與選擇;原始特征獲取;分類器設(shè)計;分類決策以下屬于計算機輔助診斷范疇的是()

A:字符識別B:鐵路扣件識別C:指紋識別D:皮膚腫瘤識別

答案:皮膚腫瘤識別嫦娥三號的成功是第一次有人類制造的探測器在月球背面實現(xiàn)軟著陸()

A:對B:錯

答案:錯以下說法正確的是()

A:外部指標將聚類結(jié)果與某個參考模型作為參照進行比較B:內(nèi)部指標主要是利用距離函數(shù)計算類內(nèi)相似度和類間相似度,并將兩者進行組合C:對于外部指標,聚類結(jié)果中被劃分到同一簇中的樣本在參考模型中被劃分到不同簇的概率越高,代表聚類結(jié)果越好。D:內(nèi)部指標不使用參考模型進行比較

答案:外部指標將聚類結(jié)果與某個參考模型作為參照進行比較;內(nèi)部指標主要是利用距離函數(shù)計算類內(nèi)相似度和類間相似度,并將兩者進行組合;內(nèi)部指標不使用參考模型進行比較

第二章單元測試

對于樣本x和判別函數(shù)g(x)的描述正確的是()

A:若g(x)<0,則x為負類,位于特征空間負側(cè)B:若g(x)>0,則x為負類,位于特征空間負側(cè)C:若g(x)<0,則x為正類,位于特征空間正側(cè)D:若g(x)>0,則x為正類,位于特征空間正側(cè)

答案:若g(x)<0,則x為負類,位于特征空間負側(cè);若g(x)>0,則x為正類,位于特征空間正側(cè)假設(shè)正負兩類樣本的均值向量分別為m1和m2,則垂直平分分類器的權(quán)向量可以表示為()。

A:|m1|*m2B:|m2|*m1C:m1+m2D:m1-m2

答案:m1-m2Fisher投影的求解可等價為一個“極小化廣義Rayleigh商”的最優(yōu)化問題()

A:錯B:對

答案:錯下面哪些屬于感知機的后續(xù)研究()

A:人工神經(jīng)網(wǎng)絡(luò)B:支持向量機SVMC:EM算法D:貝葉斯分類器

答案:人工神經(jīng)網(wǎng)絡(luò);支持向量機SVM最小平方誤差分類器中,通過對余量b進行設(shè)置,可使解等價于Fishier解()

A:對B:錯

答案:對假設(shè)類別數(shù)為c,若采用“一對多”算法構(gòu)建多類分類器,則需要訓(xùn)練的二分類模型個數(shù)、和識別階段需要調(diào)用的二分類模型個數(shù)分別為?()

A:c,cB:c(c-1)/2,c(c-1)/2C:c-1,c(c-1)/2D:c(c-1)/2,c

答案:c,c

第三章單元測試

在統(tǒng)計模式分類問題中,當先驗概率未知時,可以使用最小最大貝葉斯決策。()

A:錯B:對

答案:對以下關(guān)于樸素貝葉斯的說法中,哪—項是錯誤的()。

A:樸素貝葉斯的“樸素",指的是該方法需要假設(shè)各個特征之間是獨立的B:貝葉斯分類器應(yīng)用于大型數(shù)據(jù)庫具有較高的準確性和快速的速度C:樸素貝葉斯算法依賴于人工神經(jīng)網(wǎng)格,因此使用起來非常復(fù)雜D:樸素貝葉斯是—種簡單的多分類算法

答案:樸素貝葉斯算法依賴于人工神經(jīng)網(wǎng)格,因此使用起來非常復(fù)雜樸素貝葉斯分類算法是基于何種樸素假定()。

A:類條件正相關(guān)B:類條件負相關(guān)C:類條件相關(guān)D:類條件獨立

答案:類條件獨立半樸素貝葉斯分類器最常用的策略是獨依賴估計。()

A:對B:錯

答案:對貝葉斯網(wǎng)絡(luò)是一個()。

A:有向環(huán)形圖B:無向無環(huán)圖C:有向無環(huán)圖D:無向環(huán)形圖

答案:有向無環(huán)圖

第四章單元測試

下面的說法錯誤的是()

A:線性支持向量機中,最大間隔分類面是唯一的。B:支持向量機的最終模型僅與支持向量有關(guān)。C:支持向量機是一種無監(jiān)督的模式識別方法。D:線性支持向量機所獲得的劃分超平面是使間隔最大的超平面。

答案:支持向量機是一種無監(jiān)督的模式識別方法。支持向量機被廣泛地應(yīng)用于統(tǒng)計分類以及回歸分析,在解決小樣本、非線性及高維模式識別中表現(xiàn)出許多特有的優(yōu)勢。()

A:對B:錯

答案:對對于“軟間隔”支持向量機,KKT條件包括()

A:B:C:D:E:F:

答案:;;;;引入松弛變量的分類面稱為廣義分類面。()

A:錯B:對

答案:對對于非線性問題,需要通過升維操作在高維空間求內(nèi)積來獲得線性分類超平面。而核函數(shù)可以使樣本在原始低維空間中通過核函數(shù)運算達到高維空間中求內(nèi)積的相同結(jié)果,從而避免高維空間求內(nèi)積,簡化計算。()

A:錯B:對

答案:對對于月面場景區(qū)域,提取的特征包括()

A:形狀B:紋理C:顏色D:邊緣

答案:紋理;顏色;邊緣決策樹利用樹結(jié)構(gòu)進行決策,每一個非葉子節(jié)點是一個結(jié)論,每一個葉子節(jié)點是判斷條件。()

A:錯B:對

答案:錯決策樹的一個節(jié)點被拆分成多個節(jié)點,這個被拆分的節(jié)點就叫做父節(jié)點;其拆分后的節(jié)點叫做子節(jié)點。()

A:錯B:對

答案:對僅僅使用多個準確率僅比隨機猜測略高的分類器進行集成即可獲得準確率很高,并且能在多項式時間內(nèi)完成的分類器。()

A:對B:錯

答案:對如何讓確定決策樹生長的深度()

A:使用與訓(xùn)練樣例截然不同的一套分離的樣例,來評估通過后修剪方法從樹上修剪節(jié)點的效用B:使用所有可用數(shù)據(jù)進行訓(xùn)練,但進行統(tǒng)計測試來估計擴展(或修剪)一個特定的節(jié)點是否有可能改善在訓(xùn)練集合外的樣本上的性能C:使用一個明確的標準來衡量訓(xùn)練樣例和決策樹的復(fù)雜度,當這個編碼的長度最大時停止樹增長D:使用一個明確的標準來衡量訓(xùn)練樣例和決策樹的復(fù)雜度,當這個編碼的長度最小時停止樹增長

答案:使用與訓(xùn)練樣例截然不同的一套分離的樣例,來評估通過后修剪方法從樹上修剪節(jié)點的效用;使用所有可用數(shù)據(jù)進行訓(xùn)練,但進行統(tǒng)計測試來估計擴展(或修剪)一個特定的節(jié)點是否有可能改善在訓(xùn)練集合外的樣本上的性能;使用一個明確的標準來衡量訓(xùn)練樣例和決策樹的復(fù)雜度,當這個編碼的長度最小時停止樹增長決策樹的構(gòu)建算法包括()

A:CARTB:最小二乘法C:C4.5D:ID3

答案:CART;C4.5;ID3

第五章單元測試

模式識別系統(tǒng)的關(guān)鍵過程是()

A:特征提取B:特征計算C:特征分析D:特征選擇

答案:特征提取;特征計算;特征選擇特征提取是通過映射(或變換)的方法將高維特征映射到低維空間,在低維空間表示樣本。()

A:錯B:對

答案:對顏色特征常對圖像或目標的旋轉(zhuǎn)、反轉(zhuǎn)、尺度變化等比較敏感。()

A:錯B:對

答案:錯下面哪個是特征選擇的方式()

A:最優(yōu)搜索B:LDAC:PCAD:流形學(xué)習(xí)

答案:最優(yōu)搜索選用PCA進行特征提取時,超平面所需滿足的性質(zhì)有()

A:最小可分性B:最近重構(gòu)性C:最大可分性D:最遠重構(gòu)性

答案:最近重構(gòu)性;最大可分性總類內(nèi)離散度矩陣適合用于處理無類別標簽樣本集。()

A:對B:錯

答案:錯以下哪些是LDA特征提取方式的特點()

A:在樣本分類信息依賴均值時效果更好B:得到有利于分類的投影方向C:無監(jiān)督,無法使用類別的先驗知識D:有監(jiān)督,在降維過程中可以使用類別的先驗知識

答案:在樣本分類信息依賴均值時效果更好;得到有利于分類的投影方向;有監(jiān)督,在降維過程中可以使用類別的先驗知識流行學(xué)習(xí)是一種尋找低維嵌入結(jié)構(gòu)來發(fā)現(xiàn)映射關(guān)系的特征提取方式。()

A:對B:錯

答案:對評價準則的基本要求為()

A:判據(jù)應(yīng)該具有以下度量特性:

B:理想的判據(jù)應(yīng)該對特征具有單調(diào)性,即加入新的特征不會使判據(jù)減小C:判據(jù)應(yīng)該與錯誤率(或錯誤率的上界)有單調(diào)關(guān)系,這樣才能較好地反映分類目標。D:當特征獨立時,判據(jù)對特征應(yīng)該具有可加性

答案:判據(jù)應(yīng)該具有以下度量特性:

;理想的判據(jù)應(yīng)該對特征具有單調(diào)性,即加入新的特征不會使判據(jù)減??;判據(jù)應(yīng)該與錯誤率(或錯誤率的上界)有單調(diào)關(guān)系,這樣才能較好地反映分類目標。;當特征獨立時,判據(jù)對特征應(yīng)該具有可加性高維空間中的直線距離在低維嵌入流形上可達。()

A:錯B:對

答案:錯

第六章單元測試

K均值聚類、K-means++聚類、ISODATA聚類算法,它們的共同點是()

A:聚類結(jié)果不具有唯一性B:聚類數(shù)量確定C:采用誤差平方和準則函數(shù)D:屬于動態(tài)聚類方法

答案:聚類結(jié)果不具有唯一性;采用誤差平方和準則函數(shù);屬于動態(tài)聚類方法關(guān)于聚類算法,以下描述正確的是()

A:DBSCAN聚類算法不需要人為設(shè)定聚類數(shù)量B:K-Means++可有效緩解K-均值聚類中聚類數(shù)量預(yù)先設(shè)定的問題C:K-均值聚類對”非球形”樣本分布聚類效果不佳D:分級聚類算法是一種迭代算法

答案:DBSCAN聚類算法不需要人為設(shè)定聚類數(shù)量;K-均值聚類對”非球形”樣本分布聚類效果不佳關(guān)于DBSCAN算法,下面說法錯誤的是()

A:由核心點和與其密度相連的所有對象構(gòu)成一個密度聚類簇B:核心點選擇順序會影響最終聚類結(jié)果C:樣本集中的異常點會對聚類結(jié)果產(chǎn)生影響D:可針對任意形狀的樣本分布進行聚類

答案:由核心點和與其密度相連的所有對象構(gòu)成一個密度聚類簇;核心點選擇順序會影響最終聚類結(jié)果;樣本集中的異常點會對聚類結(jié)果產(chǎn)生影響聚類準則函數(shù)中的誤差平方和準則適用于不同類型的樣本數(shù)目相差很大的情況。()

A:錯B:對

答案:錯K均值聚類屬于基于層次的聚類方法。()

A:錯B:對

答案:錯分級聚類算法需要進行多次迭代運算。()

A:錯B:對

答案:錯

第七章單元測試

關(guān)于BP網(wǎng)絡(luò)說法正確的是()

A:BP網(wǎng)絡(luò)是基于誤差反向傳播算法訓(xùn)練的多層前饋神經(jīng)網(wǎng)絡(luò)B:BP網(wǎng)絡(luò)層數(shù)越多,分類效果越好C:BP算法由數(shù)據(jù)反向傳播和誤差正向傳播組成D:BP算法中數(shù)據(jù)正向傳播和誤差反向傳播交替進行

答案:BP網(wǎng)絡(luò)是基于誤差反向傳播算法訓(xùn)練的多層前饋神經(jīng)網(wǎng)絡(luò);BP算法中數(shù)據(jù)正向傳播和誤差反向傳播交替進行關(guān)于BP網(wǎng)絡(luò)的局限性說法正確的是()

A:只能處理淺層結(jié)構(gòu)B:易出現(xiàn)梯度彌散C:最優(yōu)的隱含層層數(shù)及隱含層神經(jīng)元數(shù)量難確定D:計算過程復(fù)雜且計算量大

答案:只能處理淺層結(jié)構(gòu);易出現(xiàn)梯度彌散;最優(yōu)的隱含層層數(shù)及隱含層神經(jīng)元數(shù)量難確定;計算過程復(fù)雜且計算量大單層前饋網(wǎng)絡(luò)中,如果有i個輸入,j個輸出,則連接權(quán)值W可以表示成一個ixj的矩陣。()

A:錯B:對

答案:對自組織映射網(wǎng)絡(luò)(SOM網(wǎng)絡(luò))從某種程度上可看作一種降維算法。()

A:對B:錯

答案:對經(jīng)典的全連接神經(jīng)網(wǎng)絡(luò)中,隱含層可以增加網(wǎng)絡(luò)深度和復(fù)雜度。()

A:對B:錯

答案:對

第八章單元測試

輸入數(shù)據(jù)是27x27x4,卷積核是3x3,步長為1,且采用0填充,卷積核個數(shù)是8,則該輸出特征圖尺寸為()

A:25x25x8B:25x25x4C:27x27x8D:27x27x4

答案:27x27x8數(shù)據(jù)填充的常用方法包括()

A:無正確答案B:0填充C:重復(fù)填充D:常數(shù)填充

答案:0填充;重復(fù)填充;常數(shù)填充3x3卷積核需要幾次疊加可以達到與9x9卷積核相同的感受野()。

A:4次B:6次C:3次D:5次

答案:4次卷積神經(jīng)網(wǎng)絡(luò)中所提取的語義概念與神經(jīng)元之間的映射關(guān)系為()

A:一

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。