版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
機(jī)器學(xué)習(xí)理論與方法知到智慧樹(shù)章節(jié)測(cè)試課后答案2024年秋同濟(jì)大學(xué)第一章單元測(cè)試
機(jī)器學(xué)習(xí)是研究發(fā)現(xiàn)數(shù)據(jù)模型的算法并利用這些模型做出決策。()
A:錯(cuò)B:對(duì)
答案:對(duì)機(jī)器學(xué)習(xí)通常要經(jīng)過(guò)數(shù)據(jù)選擇,模型訓(xùn)練,模型優(yōu)化矯正等過(guò)程。()
A:錯(cuò)B:對(duì)
答案:對(duì)決策樹(shù)模型是一種典型的聚類(lèi)模型。()
A:對(duì)B:錯(cuò)
答案:錯(cuò)決策樹(shù)是隨機(jī)森林模型的子結(jié)構(gòu)。()
A:錯(cuò)B:對(duì)
答案:對(duì)以下哪種情況適合使用SVM算法()。
A:郵件過(guò)濾
B:單細(xì)胞分類(lèi)
C:小分子結(jié)構(gòu)活性預(yù)測(cè)
D:情感分析
答案:單細(xì)胞分類(lèi)
關(guān)于機(jī)器學(xué)習(xí)的基本流程,下列順序正確的是()。
A:建?!倪M(jìn)—評(píng)價(jià)
B:建?!u(píng)價(jià)—改進(jìn)
C:改進(jìn)—評(píng)價(jià)—建模
D:評(píng)價(jià)—建?!倪M(jìn)
答案:建?!u(píng)價(jià)—改進(jìn)
監(jiān)督式學(xué)習(xí)根據(jù)輸出形式可分為()。
A:回歸
B:分類(lèi),回歸和結(jié)構(gòu)化學(xué)習(xí)
C:分類(lèi)
D:分類(lèi)和回歸
答案:分類(lèi)和回歸
機(jī)器學(xué)習(xí)根據(jù)學(xué)習(xí)方式可分為()。
A:強(qiáng)化學(xué)習(xí)
B:半監(jiān)督學(xué)習(xí)
C:監(jiān)督學(xué)習(xí)
D:無(wú)監(jiān)督學(xué)習(xí)
E:遷移學(xué)習(xí)
答案:強(qiáng)化學(xué)習(xí)
;半監(jiān)督學(xué)習(xí)
;監(jiān)督學(xué)習(xí)
;無(wú)監(jiān)督學(xué)習(xí)
樸素貝葉斯適合下列哪種場(chǎng)景分析()。
A:消費(fèi)者細(xì)分
B:車(chē)流量分析
C:自然語(yǔ)言處理
D:情感分析
答案:消費(fèi)者細(xì)分
;情感分析
機(jī)器學(xué)習(xí)根據(jù)模型性質(zhì)可分為()。
A:線性模型
B:貝葉斯模型
C:非線性模型
D:隨機(jī)模型
答案:線性模型
;非線性模型
第二章單元測(cè)試
若非零矩陣A滿足A=O,則A+E與A-E均可逆()
A:錯(cuò)B:對(duì)
答案:對(duì)矩陣的特征值為()
A:-1
B:0
C:1或-1
D:1
答案:-1
設(shè)P(A)=0.4,P(B)=0.7,事件A,B相互獨(dú)立,則P(B-A)=()
A:0.42
B:0.12
C:0.28
D:0.3
答案:0.42
已知離散型隨機(jī)變量X可取值{-3,-1,0,2},且取這些值的概率依次為,則b的取值為2()
A:錯(cuò)B:對(duì)
答案:對(duì)若隨機(jī)變量X服從N(5,4)的分布,若P(X>c)=P(X<c),則c=()
A:6
B:4
C:5
D:7
答案:5
事件A,B,C至少有一個(gè)發(fā)生可以表示為。()
A:對(duì)B:錯(cuò)
答案:對(duì)事件A與B互不相容,是指P(AB)=P(A)P(B)。()
A:對(duì)B:錯(cuò)
答案:對(duì)
下列關(guān)于矩陣的運(yùn)算法則正確的是()。
A:AB=BAB:(At)t=AC:(AB)C=A(BC)D:(A+B)C=AC+BC
答案:(At)t=A;(AB)C=A(BC);(A+B)C=AC+BC假設(shè)A和B都是同階可逆矩陣,且A為對(duì)稱(chēng)矩陣,則下列等式成立的為()。
A:(ABt)-1=A-1(B-1)tB:
(AB)t=BtA
C:(AtB)-1=B-1A-1D:(ABt)-1=(B-1)t
A-1
答案:(ABt)-1=A-1(B-1)t假設(shè)感染了新冠病毒的病人中感到身體發(fā)熱的概率為0.88,病人感染新冠病毒的概率為0.001,病人發(fā)熱的概率為0.02,則如果檢測(cè)到一個(gè)病人發(fā)熱,則判斷他感染了新冠病毒的概率為()。
A:0.044B:0.0002C:0.0088D:0.001
答案:0.044
第三章單元測(cè)試
機(jī)器學(xué)習(xí)模型都是從經(jīng)驗(yàn)中Experience學(xué)習(xí)任務(wù)Task。假設(shè)我們?yōu)榱俗屢粋€(gè)機(jī)器學(xué)習(xí)算法學(xué)會(huì)預(yù)測(cè)腫瘤病人的存活率。以下哪一項(xiàng)不是Experience的合理選擇?()
A:腫瘤病人的基因組信息
B:腫瘤分期(腫瘤的惡性程度)
C:腫瘤病人的生命體征
D:腫瘤病人的轉(zhuǎn)錄組信息
答案:腫瘤病人的基因組信息
通過(guò)細(xì)胞的轉(zhuǎn)錄組信息預(yù)測(cè)細(xì)胞類(lèi)型,屬于以下哪一種問(wèn)題?()
A:回歸問(wèn)題
B:聚類(lèi)問(wèn)題
C:分類(lèi)問(wèn)題
答案:分類(lèi)問(wèn)題
下圖為某任務(wù)損失函數(shù)隨參數(shù)變化的曲面圖,則以下說(shuō)法正確的是()
A:學(xué)習(xí)率過(guò)大可能會(huì)導(dǎo)致loss在B點(diǎn)附近來(lái)回震蕩
B:當(dāng)使用梯度下降法求解損失函數(shù)的最小值時(shí),loss可能會(huì)從A點(diǎn)到達(dá)C點(diǎn)
C:當(dāng)使用梯度下降法求解損失函數(shù)的最小值時(shí),一定會(huì)使得loss到達(dá)B點(diǎn)
D:該損失函數(shù)可能是一元線性回歸的損失函數(shù)曲面圖
答案:學(xué)習(xí)率過(guò)大可能會(huì)導(dǎo)致loss在B點(diǎn)附近來(lái)回震蕩
;當(dāng)使用梯度下降法求解損失函數(shù)的最小值時(shí),loss可能會(huì)從A點(diǎn)到達(dá)C點(diǎn)
以下哪一項(xiàng)是使用特征縮放的原因?()
A:防止梯度下降陷入局部最優(yōu)
B:加快了標(biāo)準(zhǔn)方程的求解
C:降低梯度下降的每次迭代的計(jì)算成本來(lái)加速梯度下降
D:通過(guò)減少迭代次數(shù)來(lái)獲得一個(gè)好的解,從而加速了梯度下降
答案:通過(guò)減少迭代次數(shù)來(lái)獲得一個(gè)好的解,從而加速了梯度下降
以下說(shuō)法正確的是()
A:預(yù)測(cè)蛋白質(zhì)的二級(jí)結(jié)構(gòu),該任務(wù)屬于非監(jiān)督學(xué)習(xí)
B:利用癌癥的組學(xué)數(shù)據(jù)將癌癥劃分成各個(gè)亞型,從而研究不同的治療手段,該任務(wù)屬于非監(jiān)督學(xué)習(xí)
C:預(yù)測(cè)基因的功能,該任務(wù)屬于監(jiān)督學(xué)習(xí)
答案:利用癌癥的組學(xué)數(shù)據(jù)將癌癥劃分成各個(gè)亞型,從而研究不同的治療手段,該任務(wù)屬于非監(jiān)督學(xué)習(xí)
;預(yù)測(cè)基因的功能,該任務(wù)屬于監(jiān)督學(xué)習(xí)
利用患者的年齡來(lái)預(yù)測(cè)藥物的治療效果,并使用回歸模型進(jìn)行學(xué)習(xí),則該回歸模型屬于一元回歸模型。()
A:對(duì)B:錯(cuò)
答案:對(duì)在訓(xùn)練模型時(shí),我們可以使用梯度下降法求解損失函數(shù)的最大值。()
A:錯(cuò)B:對(duì)
答案:錯(cuò)在模型訓(xùn)練過(guò)程中,學(xué)習(xí)率越大越好。()
A:對(duì)B:錯(cuò)
答案:錯(cuò)梯度下降法可以表征為。()
A:對(duì)B:錯(cuò)
答案:對(duì)現(xiàn)有以下任務(wù):利用基因A的表達(dá)量(X)預(yù)測(cè)腫瘤的大小(Y),下圖為訓(xùn)練數(shù)據(jù),我們利用線性回歸模型,假設(shè),則以下說(shuō)法正確的是()。
A:該訓(xùn)練集一共有5個(gè)樣本B:C:D:損失函數(shù)可以表征為
答案:
第四章單元測(cè)試
選擇模型時(shí),我們傾向于選擇高方差的模型,因?yàn)樗鼈兡軌蚋玫倪m應(yīng)訓(xùn)練集。()
A:對(duì)B:錯(cuò)
答案:錯(cuò)訓(xùn)練完邏輯回歸分類(lèi)器后,必須使用0.5作為預(yù)測(cè)正負(fù)的閾值。()
A:錯(cuò)B:對(duì)
答案:錯(cuò)訓(xùn)練一個(gè)邏輯回歸模型時(shí),以下哪項(xiàng)陳述是正確的?()
A:如果我們的模型偏差較高,一個(gè)合理的解決方案時(shí)引入正則化
B:向模型中添加許多新特性有助于防止訓(xùn)練集過(guò)擬合
C:向模型中添加新特征總是會(huì)在訓(xùn)練集上獲得相同或更好的性能
D:將正則化引入到模型中,總是能在訓(xùn)練集上獲得相同或更好的性能
答案:向模型中添加新特征總是會(huì)在訓(xùn)練集上獲得相同或更好的性能
Sigmoid函數(shù)的優(yōu)點(diǎn)有()
A:定義域在整個(gè)實(shí)數(shù)集上
B:不容易產(chǎn)生梯度消失
C:輸出映射在(0,1)之間,單調(diào)連續(xù)
D:易于求導(dǎo)
答案:定義域在整個(gè)實(shí)數(shù)集上
;輸出映射在(0,1)之間,單調(diào)連續(xù)
;易于求導(dǎo)
當(dāng)模型出現(xiàn)過(guò)擬合現(xiàn)象時(shí),下列哪些做法可以改善()
A:嘗試添加多個(gè)特征
B:嘗試增加正則化項(xiàng)
C:嘗試使用較少的特征
D:嘗試獲取并使用其他特征
答案:嘗試增加正則化項(xiàng)
;嘗試使用較少的特征
下列哪些情景可以用邏輯回歸()
A:從病人的腫瘤切片數(shù)據(jù)中獲取一些特征,判斷該腫瘤是良性還是惡性。
B:給定病人的一些臨床數(shù)據(jù),判斷特定療法能否發(fā)揮作用。
C:給出病人的一些風(fēng)險(xiǎn)因素,預(yù)測(cè)某一事件的發(fā)生概率。
D:給定病人的一些臨床數(shù)據(jù),預(yù)測(cè)病人的生存期。
答案:從病人的腫瘤切片數(shù)據(jù)中獲取一些特征,判斷該腫瘤是良性還是惡性。
;給定病人的一些臨床數(shù)據(jù),判斷特定療法能否發(fā)揮作用。
為了實(shí)現(xiàn)特征選擇,選擇L2正則化()
A:錯(cuò)B:對(duì)
答案:錯(cuò)過(guò)擬合在訓(xùn)練集上效果好,在測(cè)試集上效果差()
A:錯(cuò)B:對(duì)
答案:對(duì)訓(xùn)練邏輯回歸分類(lèi)器時(shí),將閾值從0.5下調(diào)至0.3。以下哪項(xiàng)是正確的:()
A:分類(lèi)器的準(zhǔn)確度和召回率可能不變,但精確率較低。
B:分類(lèi)器的準(zhǔn)確度和召回率可能不變,但精確率較高。
C:分類(lèi)器現(xiàn)在可能具有更高的召回率。
D:分類(lèi)器現(xiàn)在可能具有更高的精確率。
答案:分類(lèi)器現(xiàn)在可能具有更高的召回率。
Sigmoid函數(shù)的形式是()。
A:B:C:D:
答案:
第五章單元測(cè)試
分類(lèi)器的實(shí)際預(yù)測(cè)輸出與樣本的真實(shí)輸出之間的差異稱(chēng)為“誤差”。()
A:錯(cuò)B:對(duì)
答案:對(duì)過(guò)擬合是可以避免的。()
A:錯(cuò)B:對(duì)
答案:錯(cuò)交叉驗(yàn)證法中,如果選擇留一法,是為了避免不受隨機(jī)樣本劃分的影響。()
A:對(duì)B:錯(cuò)
答案:對(duì)學(xué)習(xí)算法訓(xùn)練程度不足時(shí),偏差會(huì)高,方差會(huì)低。()
A:錯(cuò)B:對(duì)
答案:對(duì)交叉驗(yàn)證法中的測(cè)試集是來(lái)自于()。
A:新樣本
B:訓(xùn)練集
C:驗(yàn)證集
答案:訓(xùn)練集
一般用來(lái)評(píng)價(jià)模型在訓(xùn)練集上的表現(xiàn)時(shí),用作標(biāo)準(zhǔn)的是()。
A:錯(cuò)誤率
B:精度
C:訓(xùn)練誤差
D:均方誤差
答案:均方誤差
當(dāng)學(xué)習(xí)算法偏差高,方差低時(shí),呈現(xiàn)出()。
A:欠擬合
B:模型不能用
C:過(guò)擬合
答案:欠擬合
交叉驗(yàn)證法中,設(shè)數(shù)據(jù)集包含m個(gè)樣本,不計(jì)計(jì)算開(kāi)銷(xiāo),比較準(zhǔn)確的是()。
A:1折交叉驗(yàn)證
B:m折交叉驗(yàn)證
C:10折交叉驗(yàn)證
答案:m折交叉驗(yàn)證
用來(lái)比較檢驗(yàn)分類(lèi)器的統(tǒng)計(jì)方法中,包括以下()。
A:γ檢驗(yàn)
B:交叉t檢驗(yàn)
C:二項(xiàng)檢驗(yàn)
D:海明檢驗(yàn)
答案:交叉t檢驗(yàn)
;二項(xiàng)檢驗(yàn)
平均均方誤差(Meansquareerror)可以分解為()
A:方差
B:偏差
C:訓(xùn)練誤差
D:經(jīng)驗(yàn)誤差
答案:方差
;偏差
第六章單元測(cè)試
公司里面男性有60人,女性有40人,男性穿皮鞋的人數(shù)有25人,穿運(yùn)動(dòng)鞋的人數(shù)有35人,女性穿皮鞋的人數(shù)有10人,穿高跟鞋的人數(shù)有30人?,F(xiàn)在你只知道有一個(gè)人穿了皮鞋,他是男性的概率是多少()。
A:0.1
B:0.2
C:0.5
D:0.25
答案:0.25
A,B,C產(chǎn)品占比分布為1/2,1/6,1/3;A,B,C的次品率分布為0.2,0.1,0.3;那么出現(xiàn)次品是A做出來(lái)的概率();
A:0.30
B:0.46
C:0.67
D:0.2
答案:0.46
下列關(guān)于樸素貝葉斯說(shuō)法正確的是()。
A:對(duì)小規(guī)模數(shù)據(jù)表現(xiàn)良好
B:對(duì)缺失值敏感
C:不需要獲得先驗(yàn)分布
D:對(duì)異常值敏感
答案:對(duì)小規(guī)模數(shù)據(jù)表現(xiàn)良好
假設(shè)吸煙的本科生比例為15%,而吸煙的研究生占23%。如果五分之一的大學(xué)生是研究生,其余的是本科生,那么吸煙的學(xué)生是研究生的概率是多少?()。
A:0.15
B:0.16
C:0.2
D:0.27
答案:0.2
樸素貝葉斯的應(yīng)用場(chǎng)景主要有()。
A:推薦系統(tǒng)
B:垃圾郵件判別
C:情感判別
D:文本分類(lèi)
答案:推薦系統(tǒng)
;垃圾郵件判別
;情感判別
;文本分類(lèi)
有兩枚硬幣,其中一枚均勻,另一枚不均勻,隨機(jī)拿一枚,并投擲10次,記X1:前9次有7次為正面,X2:第10次為反面,X3:這枚硬幣不均勻,則X1,X2關(guān)于X3條件獨(dú)立。()。
A:對(duì)B:錯(cuò)
答案:對(duì)貝葉斯學(xué)習(xí)最終輸出結(jié)果為模型和模型參數(shù)。()
A:對(duì)B:錯(cuò)
答案:錯(cuò)貝葉斯估計(jì)認(rèn)為參數(shù)θ是某種已知先驗(yàn)分布的隨機(jī)變量。
A:錯(cuò)B:對(duì)
答案:對(duì)下列關(guān)于樸素貝葉斯說(shuō)法正確的是()
A:進(jìn)行分布估計(jì)
B:通過(guò)最大后驗(yàn)概率進(jìn)行單點(diǎn)估計(jì)
C:生成式模型
D:判別式模型
答案:通過(guò)最大后驗(yàn)概率進(jìn)行單點(diǎn)估計(jì)
;生成式模型
以下哪項(xiàng)是后驗(yàn)概率項(xiàng),假設(shè)A為分類(lèi)變量()。
A:P(A)
B:P(B/A)
C:P(A/B)
D:P(B)
答案:P(A/B)
第七章單元測(cè)試
決策樹(shù)是基于規(guī)則的樹(shù)狀結(jié)構(gòu)的機(jī)器學(xué)習(xí)算法,可以用來(lái)進(jìn)行分類(lèi)任務(wù)。()
A:對(duì)B:錯(cuò)
答案:對(duì)熵越小,純度越低,不確定性越高。()
A:錯(cuò)B:對(duì)
答案:錯(cuò)一堆細(xì)胞中含有16個(gè)B細(xì)胞和48個(gè)T細(xì)胞,那么這堆細(xì)胞的熵是多少(log)()。
A:0.811
B:0.701
C:0.921
D:0.891
答案:0.811
信息增益本質(zhì)上遵循的是熵減原則。()
A:錯(cuò)B:對(duì)
答案:對(duì)決策樹(shù)深度越深越好,越能擬合數(shù)據(jù)。()
A:對(duì)B:錯(cuò)
答案:錯(cuò)過(guò)擬合是指模型在訓(xùn)練樣本擬合過(guò)度,表現(xiàn)極好,而在驗(yàn)證數(shù)據(jù)集以及測(cè)試數(shù)據(jù)集中表現(xiàn)不佳。()
A:對(duì)B:錯(cuò)
答案:對(duì)決策樹(shù)的剪枝是為了防止樹(shù)的過(guò)擬合,增強(qiáng)其泛化能力。包括預(yù)剪枝和后剪枝。()
A:對(duì)B:錯(cuò)
答案:對(duì)常見(jiàn)的后剪枝包括()。
A:基于樹(shù)深度的剪枝
B:減少錯(cuò)誤的剪枝
C:基于代價(jià)的剪枝
D:基于規(guī)則的剪枝
答案:減少錯(cuò)誤的剪枝
;基于規(guī)則的剪枝
決策樹(shù)無(wú)法處理特征為連續(xù)值的情況。()
A:對(duì)B:錯(cuò)
答案:錯(cuò)預(yù)剪枝是人觀測(cè)后手動(dòng)停止樹(shù)的生長(zhǎng)的。()
A:錯(cuò)B:對(duì)
答案:錯(cuò)
第八章單元測(cè)試
最近鄰算法核心思想直觀,可解釋性強(qiáng)。()
A:錯(cuò)B:對(duì)
答案:對(duì)最近鄰算法的缺點(diǎn)有()。
A:對(duì)特征不平衡數(shù)據(jù)預(yù)測(cè)效果差
B:訓(xùn)練過(guò)程復(fù)雜度高
C:預(yù)測(cè)過(guò)程計(jì)算復(fù)雜度高
D:對(duì)類(lèi)別不平衡數(shù)據(jù)預(yù)測(cè)效果差
答案:對(duì)特征不平衡數(shù)據(jù)預(yù)測(cè)效果差
;預(yù)測(cè)過(guò)程計(jì)算復(fù)雜度高
;對(duì)類(lèi)別不平衡數(shù)據(jù)預(yù)測(cè)效果差
最近鄰算法可用于分類(lèi)和回歸任務(wù)。()
A:錯(cuò)B:對(duì)
答案:對(duì)最近鄰算法中,將k值設(shè)置更小可以降低預(yù)測(cè)計(jì)算復(fù)雜度。()
A:錯(cuò)B:對(duì)
答案:錯(cuò)最近鄰算法對(duì)于類(lèi)別不平衡數(shù)據(jù)預(yù)測(cè)效果好。()
A:對(duì)B:錯(cuò)
答案:錯(cuò)最近鄰算法有很多新的改進(jìn)版本,其中weighted-distanceknn可以有效提升更近的樣本在決策時(shí)的權(quán)重。()
A:對(duì)B:錯(cuò)
答案:對(duì)最近鄰算法理論復(fù)雜,實(shí)現(xiàn)難度高。()
A:對(duì)B:錯(cuò)
答案:錯(cuò)最近鄰算法不需要訓(xùn)練過(guò)程。()
A:錯(cuò)B:對(duì)
答案:對(duì)最近鄰算法預(yù)測(cè)過(guò)程計(jì)算復(fù)雜度高主要是因?yàn)橐?jì)算待分類(lèi)樣本和其他所有樣本的距離。()
A:錯(cuò)B:對(duì)
答案:對(duì)最近鄰算法計(jì)算樣本間的距離時(shí),只能用歐氏距離。()
A:錯(cuò)B:對(duì)
答案:錯(cuò)
第九章單元測(cè)試
支持向量是最接近決策平面的點(diǎn)。()
A:對(duì)B:錯(cuò)
答案:對(duì)SVM非常適合于大規(guī)模的數(shù)據(jù)。()
A:錯(cuò)B:對(duì)
答案:錯(cuò)核函數(shù)是將低維數(shù)據(jù)映射到高維空間。()
A:錯(cuò)B:對(duì)
答案:對(duì)以下情況中哪一情況SVM的效果會(huì)不太好()。
A:數(shù)據(jù)是經(jīng)過(guò)清洗且可用的
B:數(shù)據(jù)是有噪聲并且包含重合的點(diǎn)
C:數(shù)據(jù)的維度相對(duì)來(lái)說(shuō)比較小
D:數(shù)據(jù)是線性可分的
答案:數(shù)據(jù)是有噪聲并且包含重合的點(diǎn)
如果SVM的懲罰項(xiàng)C設(shè)置成非常大,會(huì)導(dǎo)致()。
A:不好判別
B:對(duì)于這樣的C,我們可以很好的對(duì)訓(xùn)練集進(jìn)行正確分類(lèi)
C:對(duì)于這樣的C,我們不能對(duì)訓(xùn)練集進(jìn)行正確分類(lèi)
答案:對(duì)于這樣的C,我們可以很好的對(duì)訓(xùn)練集進(jìn)行正確分類(lèi)
如果有一個(gè)線性SVM模型過(guò)擬合了,以下哪一個(gè)操作你會(huì)優(yōu)先考慮進(jìn)行下一步的模型迭代()。
A:增加數(shù)據(jù)量
B:減少更多變量
C:減少數(shù)據(jù)量
D:增加更多變量
答案:增加更多變量
對(duì)于4分類(lèi)問(wèn)題,如果你要訓(xùn)練SVM模型使用一對(duì)多方法,則需要訓(xùn)練多少次模型()。
A:3
B:4
C:1
D:2
答案:4
SVR與SVM的不同點(diǎn)在于()。
A:SVR不可以使用軟間隔
B:SVR可以使用核技巧和軟間隔
C:SVR的支持向量在邊際的外面,SVM的支持向量在邊際上
D:SVR不可以使用核技巧
答案:SVR可以使用核技巧和軟間隔
;SVR的支持向量在邊際的外面,SVM的支持向量在邊際上
SVM的有效性將基于()。
A:松弛變量的選擇
B:軟間隔的懲罰項(xiàng)C
C:核函數(shù)的選擇
答案:軟間隔的懲罰項(xiàng)C
;核函數(shù)的選擇
SVM及其擴(kuò)展可以應(yīng)用在()。
A:分類(lèi)問(wèn)題
B:聚類(lèi)問(wèn)題
C:預(yù)測(cè)問(wèn)題
答案:分類(lèi)問(wèn)題
;聚類(lèi)問(wèn)題
;預(yù)測(cè)問(wèn)題
第十章單元測(cè)試
CNN網(wǎng)絡(luò)中,每一層的輸出維度由什么決定()。
A:是否進(jìn)行補(bǔ)全(padding)
B:Kernel的尺寸
C:步長(zhǎng)(strides)
D:該層的輸入
答案:是否進(jìn)行補(bǔ)全(padding)
;Kernel的尺寸
;步長(zhǎng)(strides)
;該層的輸入
在對(duì)病歷數(shù)據(jù)進(jìn)行建模時(shí),以下那些操作是必須的()。
A:對(duì)病歷進(jìn)行分詞
B:計(jì)算病歷中所含的詞的種類(lèi)
C:使用數(shù)字對(duì)分詞后的病歷進(jìn)行標(biāo)記
D:打亂分詞后的順序
答案:對(duì)病歷進(jìn)行分詞
;計(jì)算病歷中所含的詞的種類(lèi)
;使用數(shù)字對(duì)分詞后的病歷進(jìn)行標(biāo)記
圖(Graph)和圖像(Image)是同一類(lèi)數(shù)據(jù)。()
A:錯(cuò)B:對(duì)
答案:錯(cuò)深度學(xué)習(xí)模型只能接收數(shù)字矩陣作為輸入。()
A:對(duì)B:錯(cuò)
答案:對(duì)Inception結(jié)構(gòu)的設(shè)計(jì)目標(biāo)是()。
A:增加模型寬度
B:提高模型的運(yùn)行速度
C:增加模型深度
D:簡(jiǎn)化模型
答案:增加模型寬度
在生成式對(duì)抗網(wǎng)絡(luò)(GAN)中,判別器(Discriminator)所起到的作用是()。
A:輔助生成模型進(jìn)行更平穩(wěn)的訓(xùn)練
B:儲(chǔ)存生成模型所生成的樣本
C:識(shí)別出生成模型所生成的樣本所屬的種類(lèi)
D:識(shí)別出輸入的樣本是真實(shí)樣本還是來(lái)源于生成模型
答案:識(shí)別出輸入的樣本是真實(shí)樣本還是來(lái)源于生成模型
如果想使用深度學(xué)習(xí)模型去生成有一定生物活性的藥物分子,可以選擇哪些模型結(jié)構(gòu)()。
A:CharRNN
B:GAN
C:VAE
D:Inception
答案:CharRNN
;GAN
;VAE
我們想要自己去實(shí)現(xiàn)一個(gè)深度學(xué)習(xí)模型,可以使用以下哪些框架()。
A:Sklearn(scikit-learn)
B:Pytorch
C:PaddlePaddle
D:TensorFlow
答案:Pytorch
;PaddlePaddle
;TensorFlow
實(shí)驗(yàn)室想要部署一臺(tái)可以進(jìn)行深度學(xué)習(xí)運(yùn)算的服務(wù)器,最好選配GPU。()
A:對(duì)B:錯(cuò)
答案:對(duì)若使用深度學(xué)習(xí)模型對(duì)病歷數(shù)據(jù)進(jìn)行建模,則應(yīng)該選擇哪種模型()。
A:GCN
B:RNN
C:CNN
D:MLP
答案:RNN
第十一章單元測(cè)試
聚類(lèi)分析所聚類(lèi)的cluster數(shù)量限制在十個(gè)以?xún)?nèi)。()
A:錯(cuò)B:對(duì)
答案:錯(cuò)聚類(lèi)分析的目標(biāo)是盡可能的使組間差異變大。()
A:錯(cuò)B:對(duì)
答案:對(duì)聚類(lèi)分析的方法受初始點(diǎn)的影響比較小。()
A:對(duì)B:錯(cuò)
答案:錯(cuò)理論上,如果某個(gè)混合高斯模型融合的高斯模型個(gè)數(shù)足夠多,它們之間的權(quán)重設(shè)定得足夠合理,這個(gè)混合模型可以擬合任意分布的樣本。()
A:對(duì)B:錯(cuò)
答案:對(duì)對(duì)于每一個(gè)樣本,使用EM算法學(xué)習(xí)高斯混合模型的參數(shù),當(dāng)?shù)玫降闹禃r(shí)EM算法運(yùn)行結(jié)束。()
A:對(duì)B:錯(cuò)
答案:錯(cuò)以下哪些是距離的衡量方式?()
A:Manhattandistance
B:persondistance
C:Euclideandistance
D:Cosinesimilarity
答案:Manhattandistance
;Euclideandistance
;Cosinesimilarity
聚類(lèi)分析適用于多少維的數(shù)據(jù)()?
A:一百維以?xún)?nèi)
B:沒(méi)有限制
C:十維以?xún)?nèi)
D:二維
答案:沒(méi)有限制
新冠病毒已蔓延全世界,如果需要比較各個(gè)地區(qū)新冠病毒的基因突變特征并構(gòu)建系統(tǒng)發(fā)育樹(shù),以下什么聚類(lèi)方法最合適?()
A:層次聚類(lèi)
B:K-means聚類(lèi)
C:特征聚類(lèi)
D:GMM聚類(lèi)
答案:層次聚類(lèi)
關(guān)于基于高斯混合模型(GMM)的聚類(lèi)描述哪項(xiàng)是正確的?()
A:每個(gè)點(diǎn)只會(huì)分配到一個(gè)類(lèi)中,并計(jì)算分配這個(gè)點(diǎn)的概率
B:基于高斯混合模型的聚類(lèi)屬于軟聚類(lèi)
C:GMM會(huì)學(xué)習(xí)出一個(gè)概率分配函數(shù)
D:模型初始化時(shí)每一個(gè)點(diǎn)會(huì)被認(rèn)為是一個(gè)單獨(dú)的群
答案:每個(gè)點(diǎn)只會(huì)分配到一個(gè)類(lèi)中,并計(jì)算分配這個(gè)點(diǎn)的概率
;基于高斯混合模型的聚類(lèi)屬于軟聚類(lèi)
;GMM會(huì)學(xué)習(xí)出一個(gè)概率分配函數(shù)
下列說(shuō)法正確的是?()
A:離散變量的混合模型,必須要假定每個(gè)類(lèi)中的屬性是相互獨(dú)立B:EM算法常被人分為兩步,E步是使用當(dāng)前參數(shù)計(jì)算點(diǎn)的聚類(lèi)結(jié)果,M步是更新參數(shù)進(jìn)行迭代
C:EM算法常被用來(lái)學(xué)習(xí)高斯混合模型
D:樸素貝葉斯的方法常用來(lái)處理離散變量的混合模型
答案:EM算法常被人分為兩步,E步是使用當(dāng)前參數(shù)計(jì)算點(diǎn)的聚類(lèi)結(jié)果,M步是更新參數(shù)進(jìn)行迭代
;EM算法常被用來(lái)學(xué)習(xí)高斯混合模型
第十二章單元測(cè)試
假設(shè)有基因A和基因B表達(dá)量的二維數(shù)據(jù),PC1的斜率為0.25,則基因A和基因B的載荷得分為()。
A:0.97;0.242
B:4;1
C:0.25;1
D:0.326;0.74
答案:0.97;0.242
主成分學(xué)習(xí)是一種非監(jiān)督學(xué)習(xí)的降維方法。()
A:對(duì)B:錯(cuò)
答案:對(duì)數(shù)據(jù)降維可能會(huì)帶來(lái)哪些負(fù)面影響()。
A:提高模型訓(xùn)練的計(jì)算量
B:損失大量有效信息
C:降低后續(xù)算法的表現(xiàn)
D:轉(zhuǎn)化后的特征可解釋性降低
答案:降低后續(xù)算法的表現(xiàn)
;轉(zhuǎn)化后的特征可解釋性降低
在生物信息學(xué)研究中,常常需要對(duì)數(shù)據(jù)進(jìn)行降維,這是因?yàn)椋ǎ?/p>
A:需要對(duì)數(shù)據(jù)可視化
B:提高分析結(jié)果的準(zhǔn)確性
C:生物學(xué)數(shù)據(jù)中大部分都是噪聲
D:生物學(xué)數(shù)據(jù)往往具有變量多,樣本少的特點(diǎn)
答案:需要對(duì)數(shù)據(jù)可視化
;生物學(xué)數(shù)據(jù)往往具有變量多,樣本少的特點(diǎn)
自編碼器的的解碼器部分負(fù)責(zé)進(jìn)行數(shù)據(jù)降維。()
A:對(duì)B:錯(cuò)
答案:錯(cuò)高維空間中數(shù)據(jù)具有稀疏性,容易導(dǎo)致模型過(guò)擬合。()
A:對(duì)B:錯(cuò)
答案:對(duì)下列哪些是常用的數(shù)據(jù)降維算法()。
A:線性判別分析
B:因子分析
C:支持向量機(jī)
D:主成分分析
答案:線性判別分析
;因子分析
;主成分分析
選擇主成分個(gè)數(shù)時(shí),通常累計(jì)解釋方差的貢獻(xiàn)率應(yīng)在哪個(gè)區(qū)間較合適()。
A:70%~80%
B:85%~100%
C:60%~100%
D:85%~95%
答案:85%~95%
自編碼器有以下哪些特點(diǎn)()。
A:自編碼器是一種自監(jiān)督算法
B:自編碼器的輸入和輸出完全相等
C:自編碼器是神經(jīng)網(wǎng)絡(luò)的一種
D:自編碼器主要應(yīng)用于數(shù)據(jù)降維和去除噪聲
答案:自編碼器是一種自監(jiān)督算法
;自編碼器是神經(jīng)網(wǎng)絡(luò)的一種
;自編碼器主要應(yīng)用于數(shù)據(jù)降維和去除噪聲
如果生物學(xué)數(shù)據(jù)的不同變量間具備較強(qiáng)相關(guān)性,那么更適合哪種降維方法()。
A:主成分分析
B:隨機(jī)森林
C:線性判別分析
D:因子分析
答案:因子分析
第十三章單元測(cè)試
異常值檢測(cè)是特殊的分類(lèi)任務(wù)。()
A:錯(cuò)B:對(duì)
答案:對(duì)通常在異常值檢測(cè)中,數(shù)據(jù)符合,則該數(shù)據(jù)為異常值。()
A:錯(cuò)B:對(duì)
答案:錯(cuò)獨(dú)立二元高斯分布圖中每一個(gè)縱切面都是一個(gè)一元高斯分布。()
A:錯(cuò)B:對(duì)
答案:對(duì)基于內(nèi)容的推薦系統(tǒng)中,對(duì)于每一部電影,我們都掌握了可用的特征,使用這些特征訓(xùn)練出了每一個(gè)用戶的參數(shù)。但如果我們擁有用戶的參數(shù),我們無(wú)法學(xué)習(xí)得出電影的特征。()
A:錯(cuò)B:對(duì)
答案:錯(cuò)在協(xié)同過(guò)濾中,一般會(huì)將等初始值設(shè)置的比較大以獲得更好的效果。()
A:對(duì)B:錯(cuò)
答案:錯(cuò)下列屬于異常值檢測(cè)在應(yīng)用的有?()
A:表達(dá)譜數(shù)據(jù)中缺失基因的尋找
B:檢測(cè)系統(tǒng)故障
C:篩選出身體患病的病人
D:腫瘤類(lèi)型的分類(lèi)
答案:表達(dá)譜數(shù)據(jù)中缺失基因的尋找
;檢測(cè)系統(tǒng)故障
;篩選出身體患病的病人
下面對(duì)于異常值檢測(cè)的數(shù)據(jù)分布說(shuō)法正確的有?()
A:對(duì)于非高斯分布的數(shù)據(jù),雖然也可以使用檢測(cè)算法,但往往效果不是很好
B:應(yīng)盡量將非高斯分布轉(zhuǎn)化成(近似)高斯分布,然后再進(jìn)行處理
C:應(yīng)使用對(duì)應(yīng)的概率密度分布函數(shù)來(lái)改變數(shù)據(jù)的分布
D:對(duì)于符合高斯分布的數(shù)據(jù),直接運(yùn)用檢測(cè)算法
答案:對(duì)于非高斯分布的數(shù)據(jù),雖然也可以使用檢測(cè)算法,但往往效果不是很好
;應(yīng)盡量將非高斯分布轉(zhuǎn)化成(近似)高斯分布,然后再進(jìn)行處理
;應(yīng)使用對(duì)應(yīng)的概率密度分布函數(shù)來(lái)改變數(shù)據(jù)的分布
;對(duì)于符合高斯分布的數(shù)據(jù),直接運(yùn)用檢測(cè)算法
推薦系統(tǒng)常用的方法有哪些?()
A:基于聚類(lèi)算法的推薦
B:基于插值的推薦
C:基于內(nèi)容的推薦
D:基于協(xié)同過(guò)濾的推薦
答案:基于內(nèi)容的推薦
;基于協(xié)同過(guò)濾的推薦
下面哪些屬于協(xié)同過(guò)濾算法存在的不足?()
A:算法對(duì)于用戶的主觀評(píng)分比較依賴(lài)
B:當(dāng)一個(gè)新的用戶或物品進(jìn)入推薦系統(tǒng)時(shí),系統(tǒng)將無(wú)從依據(jù)
C:協(xié)同過(guò)濾算法適用于更迭快的物品(比如新聞,廣告),在更新速度過(guò)快用戶評(píng)論不多的情況下,比起其他算法,協(xié)同過(guò)濾算法能有好的的準(zhǔn)確度。
D:在推薦的過(guò)程中,當(dāng)前最流行的物品會(huì)更更容易被推薦
答案:協(xié)同過(guò)濾算法適用于更迭快的物品(比如新聞,廣告),在更新速度過(guò)快用戶評(píng)論不多的情況下,比起其他算法,協(xié)同過(guò)濾算法能有好的的準(zhǔn)確度。
在進(jìn)行crisper基因編輯實(shí)驗(yàn)時(shí),通常需要進(jìn)行引物的設(shè)計(jì)。有三個(gè)生物信息學(xué)工具可以對(duì)引物進(jìn)行打分,其中A將引物分為有效,可能有效,無(wú)效這三個(gè)等級(jí)。B將引物分為1至10共十個(gè)等級(jí),C對(duì)引物進(jìn)行打分,滿分為100分。如果想將這三個(gè)推薦工具的結(jié)果整合,下面哪個(gè)說(shuō)法是正確的?()
A:可以將三個(gè)數(shù)據(jù)集合并到一個(gè)數(shù)據(jù)集,但是應(yīng)該首先將每個(gè)數(shù)據(jù)集的打分方式標(biāo)準(zhǔn)化
B:直接將三個(gè)數(shù)據(jù)集進(jìn)行整合,不需要任何修改即可得到期望的答案。
C:三個(gè)工具度量不同,是無(wú)法整合的,需要建立三個(gè)獨(dú)立的系統(tǒng)。
D:如果對(duì)于引物,A工具無(wú)法對(duì)他評(píng)分,其他工具對(duì)其正常打分,那么由于缺少數(shù)據(jù),就沒(méi)有可靠的方法來(lái)合并數(shù)據(jù)集。
答案:可以將三個(gè)數(shù)據(jù)集合并到一個(gè)數(shù)據(jù)集,但是應(yīng)該首先將每個(gè)數(shù)據(jù)集的打分方式標(biāo)準(zhǔn)化
第十四章單元測(cè)試
畫(huà)學(xué)習(xí)曲線是為了觀察模型狀態(tài),如過(guò)擬合或欠擬合。()
A:對(duì)B:錯(cuò)
答案:對(duì)可以采用哪些方法提
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 科技改變生活課程設(shè)計(jì)
- 課程設(shè)計(jì)與實(shí)踐摘要范文
- 維修設(shè)備管理課程設(shè)計(jì)
- 工地拆除施工合同范例
- 貿(mào)易掛靠經(jīng)營(yíng)合同范例
- 免息借款合同范本3篇
- 買(mǎi)車(chē)合同違約賠償標(biāo)準(zhǔn)3篇
- 夫妻婚內(nèi)保證協(xié)議書(shū)3篇
- 《我國(guó)刑事陪審制度研究》
- 合同中的會(huì)計(jì)要求和財(cái)務(wù)報(bào)告3篇
- 2023年計(jì)劃訂單專(zhuān)員年度總結(jié)及下一年規(guī)劃
- 體質(zhì)測(cè)試成績(jī)表(自動(dòng)統(tǒng)計(jì)數(shù)據(jù))(小學(xué)、初中)
- 2022年全國(guó)垃圾分類(lèi)知識(shí)競(jìng)賽試題庫(kù)(附含答案與解析)
- 2024版醫(yī)院手術(shù)安全管理學(xué)習(xí)培訓(xùn)課件
- 材料標(biāo)準(zhǔn)目錄
- 腦卒中后吞咽障礙患者進(jìn)食護(hù)理(2023年中華護(hù)理學(xué)會(huì)團(tuán)體標(biāo)準(zhǔn))
- 護(hù)士執(zhí)業(yè)注冊(cè)申請(qǐng)表 新
- 妊娠期高血壓疾病診治指南(2022版)解讀
- 公章證照使用登記表
- 哈薩克斯坦勞動(dòng)法中文版
- 裝修工程竣工驗(yàn)收自評(píng)報(bào)告
評(píng)論
0/150
提交評(píng)論