機(jī)器學(xué)習(xí)理論與方法知到智慧樹(shù)章節(jié)測(cè)試課后答案2024年秋同濟(jì)大學(xué)_第1頁(yè)
機(jī)器學(xué)習(xí)理論與方法知到智慧樹(shù)章節(jié)測(cè)試課后答案2024年秋同濟(jì)大學(xué)_第2頁(yè)
機(jī)器學(xué)習(xí)理論與方法知到智慧樹(shù)章節(jié)測(cè)試課后答案2024年秋同濟(jì)大學(xué)_第3頁(yè)
機(jī)器學(xué)習(xí)理論與方法知到智慧樹(shù)章節(jié)測(cè)試課后答案2024年秋同濟(jì)大學(xué)_第4頁(yè)
機(jī)器學(xué)習(xí)理論與方法知到智慧樹(shù)章節(jié)測(cè)試課后答案2024年秋同濟(jì)大學(xué)_第5頁(yè)
已閱讀5頁(yè),還剩26頁(yè)未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

機(jī)器學(xué)習(xí)理論與方法知到智慧樹(shù)章節(jié)測(cè)試課后答案2024年秋同濟(jì)大學(xué)第一章單元測(cè)試

機(jī)器學(xué)習(xí)是研究發(fā)現(xiàn)數(shù)據(jù)模型的算法并利用這些模型做出決策。()

A:錯(cuò)B:對(duì)

答案:對(duì)機(jī)器學(xué)習(xí)通常要經(jīng)過(guò)數(shù)據(jù)選擇,模型訓(xùn)練,模型優(yōu)化矯正等過(guò)程。()

A:錯(cuò)B:對(duì)

答案:對(duì)決策樹(shù)模型是一種典型的聚類(lèi)模型。()

A:對(duì)B:錯(cuò)

答案:錯(cuò)決策樹(shù)是隨機(jī)森林模型的子結(jié)構(gòu)。()

A:錯(cuò)B:對(duì)

答案:對(duì)以下哪種情況適合使用SVM算法()。

A:郵件過(guò)濾

B:單細(xì)胞分類(lèi)

C:小分子結(jié)構(gòu)活性預(yù)測(cè)

D:情感分析

答案:單細(xì)胞分類(lèi)

關(guān)于機(jī)器學(xué)習(xí)的基本流程,下列順序正確的是()。

A:建?!倪M(jìn)—評(píng)價(jià)

B:建?!u(píng)價(jià)—改進(jìn)

C:改進(jìn)—評(píng)價(jià)—建模

D:評(píng)價(jià)—建?!倪M(jìn)

答案:建?!u(píng)價(jià)—改進(jìn)

監(jiān)督式學(xué)習(xí)根據(jù)輸出形式可分為()。

A:回歸

B:分類(lèi),回歸和結(jié)構(gòu)化學(xué)習(xí)

C:分類(lèi)

D:分類(lèi)和回歸

答案:分類(lèi)和回歸

機(jī)器學(xué)習(xí)根據(jù)學(xué)習(xí)方式可分為()。

A:強(qiáng)化學(xué)習(xí)

B:半監(jiān)督學(xué)習(xí)

C:監(jiān)督學(xué)習(xí)

D:無(wú)監(jiān)督學(xué)習(xí)

E:遷移學(xué)習(xí)

答案:強(qiáng)化學(xué)習(xí)

;半監(jiān)督學(xué)習(xí)

;監(jiān)督學(xué)習(xí)

;無(wú)監(jiān)督學(xué)習(xí)

樸素貝葉斯適合下列哪種場(chǎng)景分析()。

A:消費(fèi)者細(xì)分

B:車(chē)流量分析

C:自然語(yǔ)言處理

D:情感分析

答案:消費(fèi)者細(xì)分

;情感分析

機(jī)器學(xué)習(xí)根據(jù)模型性質(zhì)可分為()。

A:線性模型

B:貝葉斯模型

C:非線性模型

D:隨機(jī)模型

答案:線性模型

;非線性模型

第二章單元測(cè)試

若非零矩陣A滿足A=O,則A+E與A-E均可逆()

A:錯(cuò)B:對(duì)

答案:對(duì)矩陣的特征值為()

A:-1

B:0

C:1或-1

D:1

答案:-1

設(shè)P(A)=0.4,P(B)=0.7,事件A,B相互獨(dú)立,則P(B-A)=()

A:0.42

B:0.12

C:0.28

D:0.3

答案:0.42

已知離散型隨機(jī)變量X可取值{-3,-1,0,2},且取這些值的概率依次為,則b的取值為2()

A:錯(cuò)B:對(duì)

答案:對(duì)若隨機(jī)變量X服從N(5,4)的分布,若P(X>c)=P(X<c),則c=()

A:6

B:4

C:5

D:7

答案:5

事件A,B,C至少有一個(gè)發(fā)生可以表示為。()

A:對(duì)B:錯(cuò)

答案:對(duì)事件A與B互不相容,是指P(AB)=P(A)P(B)。()

A:對(duì)B:錯(cuò)

答案:對(duì)

下列關(guān)于矩陣的運(yùn)算法則正確的是()。

A:AB=BAB:(At)t=AC:(AB)C=A(BC)D:(A+B)C=AC+BC

答案:(At)t=A;(AB)C=A(BC);(A+B)C=AC+BC假設(shè)A和B都是同階可逆矩陣,且A為對(duì)稱(chēng)矩陣,則下列等式成立的為()。

A:(ABt)-1=A-1(B-1)tB:

(AB)t=BtA

C:(AtB)-1=B-1A-1D:(ABt)-1=(B-1)t

A-1

答案:(ABt)-1=A-1(B-1)t假設(shè)感染了新冠病毒的病人中感到身體發(fā)熱的概率為0.88,病人感染新冠病毒的概率為0.001,病人發(fā)熱的概率為0.02,則如果檢測(cè)到一個(gè)病人發(fā)熱,則判斷他感染了新冠病毒的概率為()。

A:0.044B:0.0002C:0.0088D:0.001

答案:0.044

第三章單元測(cè)試

機(jī)器學(xué)習(xí)模型都是從經(jīng)驗(yàn)中Experience學(xué)習(xí)任務(wù)Task。假設(shè)我們?yōu)榱俗屢粋€(gè)機(jī)器學(xué)習(xí)算法學(xué)會(huì)預(yù)測(cè)腫瘤病人的存活率。以下哪一項(xiàng)不是Experience的合理選擇?()

A:腫瘤病人的基因組信息

B:腫瘤分期(腫瘤的惡性程度)

C:腫瘤病人的生命體征

D:腫瘤病人的轉(zhuǎn)錄組信息

答案:腫瘤病人的基因組信息

通過(guò)細(xì)胞的轉(zhuǎn)錄組信息預(yù)測(cè)細(xì)胞類(lèi)型,屬于以下哪一種問(wèn)題?()

A:回歸問(wèn)題

B:聚類(lèi)問(wèn)題

C:分類(lèi)問(wèn)題

答案:分類(lèi)問(wèn)題

下圖為某任務(wù)損失函數(shù)隨參數(shù)變化的曲面圖,則以下說(shuō)法正確的是()

A:學(xué)習(xí)率過(guò)大可能會(huì)導(dǎo)致loss在B點(diǎn)附近來(lái)回震蕩

B:當(dāng)使用梯度下降法求解損失函數(shù)的最小值時(shí),loss可能會(huì)從A點(diǎn)到達(dá)C點(diǎn)

C:當(dāng)使用梯度下降法求解損失函數(shù)的最小值時(shí),一定會(huì)使得loss到達(dá)B點(diǎn)

D:該損失函數(shù)可能是一元線性回歸的損失函數(shù)曲面圖

答案:學(xué)習(xí)率過(guò)大可能會(huì)導(dǎo)致loss在B點(diǎn)附近來(lái)回震蕩

;當(dāng)使用梯度下降法求解損失函數(shù)的最小值時(shí),loss可能會(huì)從A點(diǎn)到達(dá)C點(diǎn)

以下哪一項(xiàng)是使用特征縮放的原因?()

A:防止梯度下降陷入局部最優(yōu)

B:加快了標(biāo)準(zhǔn)方程的求解

C:降低梯度下降的每次迭代的計(jì)算成本來(lái)加速梯度下降

D:通過(guò)減少迭代次數(shù)來(lái)獲得一個(gè)好的解,從而加速了梯度下降

答案:通過(guò)減少迭代次數(shù)來(lái)獲得一個(gè)好的解,從而加速了梯度下降

以下說(shuō)法正確的是()

A:預(yù)測(cè)蛋白質(zhì)的二級(jí)結(jié)構(gòu),該任務(wù)屬于非監(jiān)督學(xué)習(xí)

B:利用癌癥的組學(xué)數(shù)據(jù)將癌癥劃分成各個(gè)亞型,從而研究不同的治療手段,該任務(wù)屬于非監(jiān)督學(xué)習(xí)

C:預(yù)測(cè)基因的功能,該任務(wù)屬于監(jiān)督學(xué)習(xí)

答案:利用癌癥的組學(xué)數(shù)據(jù)將癌癥劃分成各個(gè)亞型,從而研究不同的治療手段,該任務(wù)屬于非監(jiān)督學(xué)習(xí)

;預(yù)測(cè)基因的功能,該任務(wù)屬于監(jiān)督學(xué)習(xí)

利用患者的年齡來(lái)預(yù)測(cè)藥物的治療效果,并使用回歸模型進(jìn)行學(xué)習(xí),則該回歸模型屬于一元回歸模型。()

A:對(duì)B:錯(cuò)

答案:對(duì)在訓(xùn)練模型時(shí),我們可以使用梯度下降法求解損失函數(shù)的最大值。()

A:錯(cuò)B:對(duì)

答案:錯(cuò)在模型訓(xùn)練過(guò)程中,學(xué)習(xí)率越大越好。()

A:對(duì)B:錯(cuò)

答案:錯(cuò)梯度下降法可以表征為。()

A:對(duì)B:錯(cuò)

答案:對(duì)現(xiàn)有以下任務(wù):利用基因A的表達(dá)量(X)預(yù)測(cè)腫瘤的大小(Y),下圖為訓(xùn)練數(shù)據(jù),我們利用線性回歸模型,假設(shè),則以下說(shuō)法正確的是()。

A:該訓(xùn)練集一共有5個(gè)樣本B:C:D:損失函數(shù)可以表征為

答案:

第四章單元測(cè)試

選擇模型時(shí),我們傾向于選擇高方差的模型,因?yàn)樗鼈兡軌蚋玫倪m應(yīng)訓(xùn)練集。()

A:對(duì)B:錯(cuò)

答案:錯(cuò)訓(xùn)練完邏輯回歸分類(lèi)器后,必須使用0.5作為預(yù)測(cè)正負(fù)的閾值。()

A:錯(cuò)B:對(duì)

答案:錯(cuò)訓(xùn)練一個(gè)邏輯回歸模型時(shí),以下哪項(xiàng)陳述是正確的?()

A:如果我們的模型偏差較高,一個(gè)合理的解決方案時(shí)引入正則化

B:向模型中添加許多新特性有助于防止訓(xùn)練集過(guò)擬合

C:向模型中添加新特征總是會(huì)在訓(xùn)練集上獲得相同或更好的性能

D:將正則化引入到模型中,總是能在訓(xùn)練集上獲得相同或更好的性能

答案:向模型中添加新特征總是會(huì)在訓(xùn)練集上獲得相同或更好的性能

Sigmoid函數(shù)的優(yōu)點(diǎn)有()

A:定義域在整個(gè)實(shí)數(shù)集上

B:不容易產(chǎn)生梯度消失

C:輸出映射在(0,1)之間,單調(diào)連續(xù)

D:易于求導(dǎo)

答案:定義域在整個(gè)實(shí)數(shù)集上

;輸出映射在(0,1)之間,單調(diào)連續(xù)

;易于求導(dǎo)

當(dāng)模型出現(xiàn)過(guò)擬合現(xiàn)象時(shí),下列哪些做法可以改善()

A:嘗試添加多個(gè)特征

B:嘗試增加正則化項(xiàng)

C:嘗試使用較少的特征

D:嘗試獲取并使用其他特征

答案:嘗試增加正則化項(xiàng)

;嘗試使用較少的特征

下列哪些情景可以用邏輯回歸()

A:從病人的腫瘤切片數(shù)據(jù)中獲取一些特征,判斷該腫瘤是良性還是惡性。

B:給定病人的一些臨床數(shù)據(jù),判斷特定療法能否發(fā)揮作用。

C:給出病人的一些風(fēng)險(xiǎn)因素,預(yù)測(cè)某一事件的發(fā)生概率。

D:給定病人的一些臨床數(shù)據(jù),預(yù)測(cè)病人的生存期。

答案:從病人的腫瘤切片數(shù)據(jù)中獲取一些特征,判斷該腫瘤是良性還是惡性。

;給定病人的一些臨床數(shù)據(jù),判斷特定療法能否發(fā)揮作用。

為了實(shí)現(xiàn)特征選擇,選擇L2正則化()

A:錯(cuò)B:對(duì)

答案:錯(cuò)過(guò)擬合在訓(xùn)練集上效果好,在測(cè)試集上效果差()

A:錯(cuò)B:對(duì)

答案:對(duì)訓(xùn)練邏輯回歸分類(lèi)器時(shí),將閾值從0.5下調(diào)至0.3。以下哪項(xiàng)是正確的:()

A:分類(lèi)器的準(zhǔn)確度和召回率可能不變,但精確率較低。

B:分類(lèi)器的準(zhǔn)確度和召回率可能不變,但精確率較高。

C:分類(lèi)器現(xiàn)在可能具有更高的召回率。

D:分類(lèi)器現(xiàn)在可能具有更高的精確率。

答案:分類(lèi)器現(xiàn)在可能具有更高的召回率。

Sigmoid函數(shù)的形式是()。

A:B:C:D:

答案:

第五章單元測(cè)試

分類(lèi)器的實(shí)際預(yù)測(cè)輸出與樣本的真實(shí)輸出之間的差異稱(chēng)為“誤差”。()

A:錯(cuò)B:對(duì)

答案:對(duì)過(guò)擬合是可以避免的。()

A:錯(cuò)B:對(duì)

答案:錯(cuò)交叉驗(yàn)證法中,如果選擇留一法,是為了避免不受隨機(jī)樣本劃分的影響。()

A:對(duì)B:錯(cuò)

答案:對(duì)學(xué)習(xí)算法訓(xùn)練程度不足時(shí),偏差會(huì)高,方差會(huì)低。()

A:錯(cuò)B:對(duì)

答案:對(duì)交叉驗(yàn)證法中的測(cè)試集是來(lái)自于()。

A:新樣本

B:訓(xùn)練集

C:驗(yàn)證集

答案:訓(xùn)練集

一般用來(lái)評(píng)價(jià)模型在訓(xùn)練集上的表現(xiàn)時(shí),用作標(biāo)準(zhǔn)的是()。

A:錯(cuò)誤率

B:精度

C:訓(xùn)練誤差

D:均方誤差

答案:均方誤差

當(dāng)學(xué)習(xí)算法偏差高,方差低時(shí),呈現(xiàn)出()。

A:欠擬合

B:模型不能用

C:過(guò)擬合

答案:欠擬合

交叉驗(yàn)證法中,設(shè)數(shù)據(jù)集包含m個(gè)樣本,不計(jì)計(jì)算開(kāi)銷(xiāo),比較準(zhǔn)確的是()。

A:1折交叉驗(yàn)證

B:m折交叉驗(yàn)證

C:10折交叉驗(yàn)證

答案:m折交叉驗(yàn)證

用來(lái)比較檢驗(yàn)分類(lèi)器的統(tǒng)計(jì)方法中,包括以下()。

A:γ檢驗(yàn)

B:交叉t檢驗(yàn)

C:二項(xiàng)檢驗(yàn)

D:海明檢驗(yàn)

答案:交叉t檢驗(yàn)

;二項(xiàng)檢驗(yàn)

平均均方誤差(Meansquareerror)可以分解為()

A:方差

B:偏差

C:訓(xùn)練誤差

D:經(jīng)驗(yàn)誤差

答案:方差

;偏差

第六章單元測(cè)試

公司里面男性有60人,女性有40人,男性穿皮鞋的人數(shù)有25人,穿運(yùn)動(dòng)鞋的人數(shù)有35人,女性穿皮鞋的人數(shù)有10人,穿高跟鞋的人數(shù)有30人?,F(xiàn)在你只知道有一個(gè)人穿了皮鞋,他是男性的概率是多少()。

A:0.1

B:0.2

C:0.5

D:0.25

答案:0.25

A,B,C產(chǎn)品占比分布為1/2,1/6,1/3;A,B,C的次品率分布為0.2,0.1,0.3;那么出現(xiàn)次品是A做出來(lái)的概率();

A:0.30

B:0.46

C:0.67

D:0.2

答案:0.46

下列關(guān)于樸素貝葉斯說(shuō)法正確的是()。

A:對(duì)小規(guī)模數(shù)據(jù)表現(xiàn)良好

B:對(duì)缺失值敏感

C:不需要獲得先驗(yàn)分布

D:對(duì)異常值敏感

答案:對(duì)小規(guī)模數(shù)據(jù)表現(xiàn)良好

假設(shè)吸煙的本科生比例為15%,而吸煙的研究生占23%。如果五分之一的大學(xué)生是研究生,其余的是本科生,那么吸煙的學(xué)生是研究生的概率是多少?()。

A:0.15

B:0.16

C:0.2

D:0.27

答案:0.2

樸素貝葉斯的應(yīng)用場(chǎng)景主要有()。

A:推薦系統(tǒng)

B:垃圾郵件判別

C:情感判別

D:文本分類(lèi)

答案:推薦系統(tǒng)

;垃圾郵件判別

;情感判別

;文本分類(lèi)

有兩枚硬幣,其中一枚均勻,另一枚不均勻,隨機(jī)拿一枚,并投擲10次,記X1:前9次有7次為正面,X2:第10次為反面,X3:這枚硬幣不均勻,則X1,X2關(guān)于X3條件獨(dú)立。()。

A:對(duì)B:錯(cuò)

答案:對(duì)貝葉斯學(xué)習(xí)最終輸出結(jié)果為模型和模型參數(shù)。()

A:對(duì)B:錯(cuò)

答案:錯(cuò)貝葉斯估計(jì)認(rèn)為參數(shù)θ是某種已知先驗(yàn)分布的隨機(jī)變量。

A:錯(cuò)B:對(duì)

答案:對(duì)下列關(guān)于樸素貝葉斯說(shuō)法正確的是()

A:進(jìn)行分布估計(jì)

B:通過(guò)最大后驗(yàn)概率進(jìn)行單點(diǎn)估計(jì)

C:生成式模型

D:判別式模型

答案:通過(guò)最大后驗(yàn)概率進(jìn)行單點(diǎn)估計(jì)

;生成式模型

以下哪項(xiàng)是后驗(yàn)概率項(xiàng),假設(shè)A為分類(lèi)變量()。

A:P(A)

B:P(B/A)

C:P(A/B)

D:P(B)

答案:P(A/B)

第七章單元測(cè)試

決策樹(shù)是基于規(guī)則的樹(shù)狀結(jié)構(gòu)的機(jī)器學(xué)習(xí)算法,可以用來(lái)進(jìn)行分類(lèi)任務(wù)。()

A:對(duì)B:錯(cuò)

答案:對(duì)熵越小,純度越低,不確定性越高。()

A:錯(cuò)B:對(duì)

答案:錯(cuò)一堆細(xì)胞中含有16個(gè)B細(xì)胞和48個(gè)T細(xì)胞,那么這堆細(xì)胞的熵是多少(log)()。

A:0.811

B:0.701

C:0.921

D:0.891

答案:0.811

信息增益本質(zhì)上遵循的是熵減原則。()

A:錯(cuò)B:對(duì)

答案:對(duì)決策樹(shù)深度越深越好,越能擬合數(shù)據(jù)。()

A:對(duì)B:錯(cuò)

答案:錯(cuò)過(guò)擬合是指模型在訓(xùn)練樣本擬合過(guò)度,表現(xiàn)極好,而在驗(yàn)證數(shù)據(jù)集以及測(cè)試數(shù)據(jù)集中表現(xiàn)不佳。()

A:對(duì)B:錯(cuò)

答案:對(duì)決策樹(shù)的剪枝是為了防止樹(shù)的過(guò)擬合,增強(qiáng)其泛化能力。包括預(yù)剪枝和后剪枝。()

A:對(duì)B:錯(cuò)

答案:對(duì)常見(jiàn)的后剪枝包括()。

A:基于樹(shù)深度的剪枝

B:減少錯(cuò)誤的剪枝

C:基于代價(jià)的剪枝

D:基于規(guī)則的剪枝

答案:減少錯(cuò)誤的剪枝

;基于規(guī)則的剪枝

決策樹(shù)無(wú)法處理特征為連續(xù)值的情況。()

A:對(duì)B:錯(cuò)

答案:錯(cuò)預(yù)剪枝是人觀測(cè)后手動(dòng)停止樹(shù)的生長(zhǎng)的。()

A:錯(cuò)B:對(duì)

答案:錯(cuò)

第八章單元測(cè)試

最近鄰算法核心思想直觀,可解釋性強(qiáng)。()

A:錯(cuò)B:對(duì)

答案:對(duì)最近鄰算法的缺點(diǎn)有()。

A:對(duì)特征不平衡數(shù)據(jù)預(yù)測(cè)效果差

B:訓(xùn)練過(guò)程復(fù)雜度高

C:預(yù)測(cè)過(guò)程計(jì)算復(fù)雜度高

D:對(duì)類(lèi)別不平衡數(shù)據(jù)預(yù)測(cè)效果差

答案:對(duì)特征不平衡數(shù)據(jù)預(yù)測(cè)效果差

;預(yù)測(cè)過(guò)程計(jì)算復(fù)雜度高

;對(duì)類(lèi)別不平衡數(shù)據(jù)預(yù)測(cè)效果差

最近鄰算法可用于分類(lèi)和回歸任務(wù)。()

A:錯(cuò)B:對(duì)

答案:對(duì)最近鄰算法中,將k值設(shè)置更小可以降低預(yù)測(cè)計(jì)算復(fù)雜度。()

A:錯(cuò)B:對(duì)

答案:錯(cuò)最近鄰算法對(duì)于類(lèi)別不平衡數(shù)據(jù)預(yù)測(cè)效果好。()

A:對(duì)B:錯(cuò)

答案:錯(cuò)最近鄰算法有很多新的改進(jìn)版本,其中weighted-distanceknn可以有效提升更近的樣本在決策時(shí)的權(quán)重。()

A:對(duì)B:錯(cuò)

答案:對(duì)最近鄰算法理論復(fù)雜,實(shí)現(xiàn)難度高。()

A:對(duì)B:錯(cuò)

答案:錯(cuò)最近鄰算法不需要訓(xùn)練過(guò)程。()

A:錯(cuò)B:對(duì)

答案:對(duì)最近鄰算法預(yù)測(cè)過(guò)程計(jì)算復(fù)雜度高主要是因?yàn)橐?jì)算待分類(lèi)樣本和其他所有樣本的距離。()

A:錯(cuò)B:對(duì)

答案:對(duì)最近鄰算法計(jì)算樣本間的距離時(shí),只能用歐氏距離。()

A:錯(cuò)B:對(duì)

答案:錯(cuò)

第九章單元測(cè)試

支持向量是最接近決策平面的點(diǎn)。()

A:對(duì)B:錯(cuò)

答案:對(duì)SVM非常適合于大規(guī)模的數(shù)據(jù)。()

A:錯(cuò)B:對(duì)

答案:錯(cuò)核函數(shù)是將低維數(shù)據(jù)映射到高維空間。()

A:錯(cuò)B:對(duì)

答案:對(duì)以下情況中哪一情況SVM的效果會(huì)不太好()。

A:數(shù)據(jù)是經(jīng)過(guò)清洗且可用的

B:數(shù)據(jù)是有噪聲并且包含重合的點(diǎn)

C:數(shù)據(jù)的維度相對(duì)來(lái)說(shuō)比較小

D:數(shù)據(jù)是線性可分的

答案:數(shù)據(jù)是有噪聲并且包含重合的點(diǎn)

如果SVM的懲罰項(xiàng)C設(shè)置成非常大,會(huì)導(dǎo)致()。

A:不好判別

B:對(duì)于這樣的C,我們可以很好的對(duì)訓(xùn)練集進(jìn)行正確分類(lèi)

C:對(duì)于這樣的C,我們不能對(duì)訓(xùn)練集進(jìn)行正確分類(lèi)

答案:對(duì)于這樣的C,我們可以很好的對(duì)訓(xùn)練集進(jìn)行正確分類(lèi)

如果有一個(gè)線性SVM模型過(guò)擬合了,以下哪一個(gè)操作你會(huì)優(yōu)先考慮進(jìn)行下一步的模型迭代()。

A:增加數(shù)據(jù)量

B:減少更多變量

C:減少數(shù)據(jù)量

D:增加更多變量

答案:增加更多變量

對(duì)于4分類(lèi)問(wèn)題,如果你要訓(xùn)練SVM模型使用一對(duì)多方法,則需要訓(xùn)練多少次模型()。

A:3

B:4

C:1

D:2

答案:4

SVR與SVM的不同點(diǎn)在于()。

A:SVR不可以使用軟間隔

B:SVR可以使用核技巧和軟間隔

C:SVR的支持向量在邊際的外面,SVM的支持向量在邊際上

D:SVR不可以使用核技巧

答案:SVR可以使用核技巧和軟間隔

;SVR的支持向量在邊際的外面,SVM的支持向量在邊際上

SVM的有效性將基于()。

A:松弛變量的選擇

B:軟間隔的懲罰項(xiàng)C

C:核函數(shù)的選擇

答案:軟間隔的懲罰項(xiàng)C

;核函數(shù)的選擇

SVM及其擴(kuò)展可以應(yīng)用在()。

A:分類(lèi)問(wèn)題

B:聚類(lèi)問(wèn)題

C:預(yù)測(cè)問(wèn)題

答案:分類(lèi)問(wèn)題

;聚類(lèi)問(wèn)題

;預(yù)測(cè)問(wèn)題

第十章單元測(cè)試

CNN網(wǎng)絡(luò)中,每一層的輸出維度由什么決定()。

A:是否進(jìn)行補(bǔ)全(padding)

B:Kernel的尺寸

C:步長(zhǎng)(strides)

D:該層的輸入

答案:是否進(jìn)行補(bǔ)全(padding)

;Kernel的尺寸

;步長(zhǎng)(strides)

;該層的輸入

在對(duì)病歷數(shù)據(jù)進(jìn)行建模時(shí),以下那些操作是必須的()。

A:對(duì)病歷進(jìn)行分詞

B:計(jì)算病歷中所含的詞的種類(lèi)

C:使用數(shù)字對(duì)分詞后的病歷進(jìn)行標(biāo)記

D:打亂分詞后的順序

答案:對(duì)病歷進(jìn)行分詞

;計(jì)算病歷中所含的詞的種類(lèi)

;使用數(shù)字對(duì)分詞后的病歷進(jìn)行標(biāo)記

圖(Graph)和圖像(Image)是同一類(lèi)數(shù)據(jù)。()

A:錯(cuò)B:對(duì)

答案:錯(cuò)深度學(xué)習(xí)模型只能接收數(shù)字矩陣作為輸入。()

A:對(duì)B:錯(cuò)

答案:對(duì)Inception結(jié)構(gòu)的設(shè)計(jì)目標(biāo)是()。

A:增加模型寬度

B:提高模型的運(yùn)行速度

C:增加模型深度

D:簡(jiǎn)化模型

答案:增加模型寬度

在生成式對(duì)抗網(wǎng)絡(luò)(GAN)中,判別器(Discriminator)所起到的作用是()。

A:輔助生成模型進(jìn)行更平穩(wěn)的訓(xùn)練

B:儲(chǔ)存生成模型所生成的樣本

C:識(shí)別出生成模型所生成的樣本所屬的種類(lèi)

D:識(shí)別出輸入的樣本是真實(shí)樣本還是來(lái)源于生成模型

答案:識(shí)別出輸入的樣本是真實(shí)樣本還是來(lái)源于生成模型

如果想使用深度學(xué)習(xí)模型去生成有一定生物活性的藥物分子,可以選擇哪些模型結(jié)構(gòu)()。

A:CharRNN

B:GAN

C:VAE

D:Inception

答案:CharRNN

;GAN

;VAE

我們想要自己去實(shí)現(xiàn)一個(gè)深度學(xué)習(xí)模型,可以使用以下哪些框架()。

A:Sklearn(scikit-learn)

B:Pytorch

C:PaddlePaddle

D:TensorFlow

答案:Pytorch

;PaddlePaddle

;TensorFlow

實(shí)驗(yàn)室想要部署一臺(tái)可以進(jìn)行深度學(xué)習(xí)運(yùn)算的服務(wù)器,最好選配GPU。()

A:對(duì)B:錯(cuò)

答案:對(duì)若使用深度學(xué)習(xí)模型對(duì)病歷數(shù)據(jù)進(jìn)行建模,則應(yīng)該選擇哪種模型()。

A:GCN

B:RNN

C:CNN

D:MLP

答案:RNN

第十一章單元測(cè)試

聚類(lèi)分析所聚類(lèi)的cluster數(shù)量限制在十個(gè)以?xún)?nèi)。()

A:錯(cuò)B:對(duì)

答案:錯(cuò)聚類(lèi)分析的目標(biāo)是盡可能的使組間差異變大。()

A:錯(cuò)B:對(duì)

答案:對(duì)聚類(lèi)分析的方法受初始點(diǎn)的影響比較小。()

A:對(duì)B:錯(cuò)

答案:錯(cuò)理論上,如果某個(gè)混合高斯模型融合的高斯模型個(gè)數(shù)足夠多,它們之間的權(quán)重設(shè)定得足夠合理,這個(gè)混合模型可以擬合任意分布的樣本。()

A:對(duì)B:錯(cuò)

答案:對(duì)對(duì)于每一個(gè)樣本,使用EM算法學(xué)習(xí)高斯混合模型的參數(shù),當(dāng)?shù)玫降闹禃r(shí)EM算法運(yùn)行結(jié)束。()

A:對(duì)B:錯(cuò)

答案:錯(cuò)以下哪些是距離的衡量方式?()

A:Manhattandistance

B:persondistance

C:Euclideandistance

D:Cosinesimilarity

答案:Manhattandistance

;Euclideandistance

;Cosinesimilarity

聚類(lèi)分析適用于多少維的數(shù)據(jù)()?

A:一百維以?xún)?nèi)

B:沒(méi)有限制

C:十維以?xún)?nèi)

D:二維

答案:沒(méi)有限制

新冠病毒已蔓延全世界,如果需要比較各個(gè)地區(qū)新冠病毒的基因突變特征并構(gòu)建系統(tǒng)發(fā)育樹(shù),以下什么聚類(lèi)方法最合適?()

A:層次聚類(lèi)

B:K-means聚類(lèi)

C:特征聚類(lèi)

D:GMM聚類(lèi)

答案:層次聚類(lèi)

關(guān)于基于高斯混合模型(GMM)的聚類(lèi)描述哪項(xiàng)是正確的?()

A:每個(gè)點(diǎn)只會(huì)分配到一個(gè)類(lèi)中,并計(jì)算分配這個(gè)點(diǎn)的概率

B:基于高斯混合模型的聚類(lèi)屬于軟聚類(lèi)

C:GMM會(huì)學(xué)習(xí)出一個(gè)概率分配函數(shù)

D:模型初始化時(shí)每一個(gè)點(diǎn)會(huì)被認(rèn)為是一個(gè)單獨(dú)的群

答案:每個(gè)點(diǎn)只會(huì)分配到一個(gè)類(lèi)中,并計(jì)算分配這個(gè)點(diǎn)的概率

;基于高斯混合模型的聚類(lèi)屬于軟聚類(lèi)

;GMM會(huì)學(xué)習(xí)出一個(gè)概率分配函數(shù)

下列說(shuō)法正確的是?()

A:離散變量的混合模型,必須要假定每個(gè)類(lèi)中的屬性是相互獨(dú)立B:EM算法常被人分為兩步,E步是使用當(dāng)前參數(shù)計(jì)算點(diǎn)的聚類(lèi)結(jié)果,M步是更新參數(shù)進(jìn)行迭代

C:EM算法常被用來(lái)學(xué)習(xí)高斯混合模型

D:樸素貝葉斯的方法常用來(lái)處理離散變量的混合模型

答案:EM算法常被人分為兩步,E步是使用當(dāng)前參數(shù)計(jì)算點(diǎn)的聚類(lèi)結(jié)果,M步是更新參數(shù)進(jìn)行迭代

;EM算法常被用來(lái)學(xué)習(xí)高斯混合模型

第十二章單元測(cè)試

假設(shè)有基因A和基因B表達(dá)量的二維數(shù)據(jù),PC1的斜率為0.25,則基因A和基因B的載荷得分為()。

A:0.97;0.242

B:4;1

C:0.25;1

D:0.326;0.74

答案:0.97;0.242

主成分學(xué)習(xí)是一種非監(jiān)督學(xué)習(xí)的降維方法。()

A:對(duì)B:錯(cuò)

答案:對(duì)數(shù)據(jù)降維可能會(huì)帶來(lái)哪些負(fù)面影響()。

A:提高模型訓(xùn)練的計(jì)算量

B:損失大量有效信息

C:降低后續(xù)算法的表現(xiàn)

D:轉(zhuǎn)化后的特征可解釋性降低

答案:降低后續(xù)算法的表現(xiàn)

;轉(zhuǎn)化后的特征可解釋性降低

在生物信息學(xué)研究中,常常需要對(duì)數(shù)據(jù)進(jìn)行降維,這是因?yàn)椋ǎ?/p>

A:需要對(duì)數(shù)據(jù)可視化

B:提高分析結(jié)果的準(zhǔn)確性

C:生物學(xué)數(shù)據(jù)中大部分都是噪聲

D:生物學(xué)數(shù)據(jù)往往具有變量多,樣本少的特點(diǎn)

答案:需要對(duì)數(shù)據(jù)可視化

;生物學(xué)數(shù)據(jù)往往具有變量多,樣本少的特點(diǎn)

自編碼器的的解碼器部分負(fù)責(zé)進(jìn)行數(shù)據(jù)降維。()

A:對(duì)B:錯(cuò)

答案:錯(cuò)高維空間中數(shù)據(jù)具有稀疏性,容易導(dǎo)致模型過(guò)擬合。()

A:對(duì)B:錯(cuò)

答案:對(duì)下列哪些是常用的數(shù)據(jù)降維算法()。

A:線性判別分析

B:因子分析

C:支持向量機(jī)

D:主成分分析

答案:線性判別分析

;因子分析

;主成分分析

選擇主成分個(gè)數(shù)時(shí),通常累計(jì)解釋方差的貢獻(xiàn)率應(yīng)在哪個(gè)區(qū)間較合適()。

A:70%~80%

B:85%~100%

C:60%~100%

D:85%~95%

答案:85%~95%

自編碼器有以下哪些特點(diǎn)()。

A:自編碼器是一種自監(jiān)督算法

B:自編碼器的輸入和輸出完全相等

C:自編碼器是神經(jīng)網(wǎng)絡(luò)的一種

D:自編碼器主要應(yīng)用于數(shù)據(jù)降維和去除噪聲

答案:自編碼器是一種自監(jiān)督算法

;自編碼器是神經(jīng)網(wǎng)絡(luò)的一種

;自編碼器主要應(yīng)用于數(shù)據(jù)降維和去除噪聲

如果生物學(xué)數(shù)據(jù)的不同變量間具備較強(qiáng)相關(guān)性,那么更適合哪種降維方法()。

A:主成分分析

B:隨機(jī)森林

C:線性判別分析

D:因子分析

答案:因子分析

第十三章單元測(cè)試

異常值檢測(cè)是特殊的分類(lèi)任務(wù)。()

A:錯(cuò)B:對(duì)

答案:對(duì)通常在異常值檢測(cè)中,數(shù)據(jù)符合,則該數(shù)據(jù)為異常值。()

A:錯(cuò)B:對(duì)

答案:錯(cuò)獨(dú)立二元高斯分布圖中每一個(gè)縱切面都是一個(gè)一元高斯分布。()

A:錯(cuò)B:對(duì)

答案:對(duì)基于內(nèi)容的推薦系統(tǒng)中,對(duì)于每一部電影,我們都掌握了可用的特征,使用這些特征訓(xùn)練出了每一個(gè)用戶的參數(shù)。但如果我們擁有用戶的參數(shù),我們無(wú)法學(xué)習(xí)得出電影的特征。()

A:錯(cuò)B:對(duì)

答案:錯(cuò)在協(xié)同過(guò)濾中,一般會(huì)將等初始值設(shè)置的比較大以獲得更好的效果。()

A:對(duì)B:錯(cuò)

答案:錯(cuò)下列屬于異常值檢測(cè)在應(yīng)用的有?()

A:表達(dá)譜數(shù)據(jù)中缺失基因的尋找

B:檢測(cè)系統(tǒng)故障

C:篩選出身體患病的病人

D:腫瘤類(lèi)型的分類(lèi)

答案:表達(dá)譜數(shù)據(jù)中缺失基因的尋找

;檢測(cè)系統(tǒng)故障

;篩選出身體患病的病人

下面對(duì)于異常值檢測(cè)的數(shù)據(jù)分布說(shuō)法正確的有?()

A:對(duì)于非高斯分布的數(shù)據(jù),雖然也可以使用檢測(cè)算法,但往往效果不是很好

B:應(yīng)盡量將非高斯分布轉(zhuǎn)化成(近似)高斯分布,然后再進(jìn)行處理

C:應(yīng)使用對(duì)應(yīng)的概率密度分布函數(shù)來(lái)改變數(shù)據(jù)的分布

D:對(duì)于符合高斯分布的數(shù)據(jù),直接運(yùn)用檢測(cè)算法

答案:對(duì)于非高斯分布的數(shù)據(jù),雖然也可以使用檢測(cè)算法,但往往效果不是很好

;應(yīng)盡量將非高斯分布轉(zhuǎn)化成(近似)高斯分布,然后再進(jìn)行處理

;應(yīng)使用對(duì)應(yīng)的概率密度分布函數(shù)來(lái)改變數(shù)據(jù)的分布

;對(duì)于符合高斯分布的數(shù)據(jù),直接運(yùn)用檢測(cè)算法

推薦系統(tǒng)常用的方法有哪些?()

A:基于聚類(lèi)算法的推薦

B:基于插值的推薦

C:基于內(nèi)容的推薦

D:基于協(xié)同過(guò)濾的推薦

答案:基于內(nèi)容的推薦

;基于協(xié)同過(guò)濾的推薦

下面哪些屬于協(xié)同過(guò)濾算法存在的不足?()

A:算法對(duì)于用戶的主觀評(píng)分比較依賴(lài)

B:當(dāng)一個(gè)新的用戶或物品進(jìn)入推薦系統(tǒng)時(shí),系統(tǒng)將無(wú)從依據(jù)

C:協(xié)同過(guò)濾算法適用于更迭快的物品(比如新聞,廣告),在更新速度過(guò)快用戶評(píng)論不多的情況下,比起其他算法,協(xié)同過(guò)濾算法能有好的的準(zhǔn)確度。

D:在推薦的過(guò)程中,當(dāng)前最流行的物品會(huì)更更容易被推薦

答案:協(xié)同過(guò)濾算法適用于更迭快的物品(比如新聞,廣告),在更新速度過(guò)快用戶評(píng)論不多的情況下,比起其他算法,協(xié)同過(guò)濾算法能有好的的準(zhǔn)確度。

在進(jìn)行crisper基因編輯實(shí)驗(yàn)時(shí),通常需要進(jìn)行引物的設(shè)計(jì)。有三個(gè)生物信息學(xué)工具可以對(duì)引物進(jìn)行打分,其中A將引物分為有效,可能有效,無(wú)效這三個(gè)等級(jí)。B將引物分為1至10共十個(gè)等級(jí),C對(duì)引物進(jìn)行打分,滿分為100分。如果想將這三個(gè)推薦工具的結(jié)果整合,下面哪個(gè)說(shuō)法是正確的?()

A:可以將三個(gè)數(shù)據(jù)集合并到一個(gè)數(shù)據(jù)集,但是應(yīng)該首先將每個(gè)數(shù)據(jù)集的打分方式標(biāo)準(zhǔn)化

B:直接將三個(gè)數(shù)據(jù)集進(jìn)行整合,不需要任何修改即可得到期望的答案。

C:三個(gè)工具度量不同,是無(wú)法整合的,需要建立三個(gè)獨(dú)立的系統(tǒng)。

D:如果對(duì)于引物,A工具無(wú)法對(duì)他評(píng)分,其他工具對(duì)其正常打分,那么由于缺少數(shù)據(jù),就沒(méi)有可靠的方法來(lái)合并數(shù)據(jù)集。

答案:可以將三個(gè)數(shù)據(jù)集合并到一個(gè)數(shù)據(jù)集,但是應(yīng)該首先將每個(gè)數(shù)據(jù)集的打分方式標(biāo)準(zhǔn)化

第十四章單元測(cè)試

畫(huà)學(xué)習(xí)曲線是為了觀察模型狀態(tài),如過(guò)擬合或欠擬合。()

A:對(duì)B:錯(cuò)

答案:對(duì)可以采用哪些方法提

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論