機(jī)器學(xué)習(xí):模型與算法知到智慧樹(shù)章節(jié)測(cè)試課后答案2024年秋浙江大學(xué)_第1頁(yè)
機(jī)器學(xué)習(xí):模型與算法知到智慧樹(shù)章節(jié)測(cè)試課后答案2024年秋浙江大學(xué)_第2頁(yè)
機(jī)器學(xué)習(xí):模型與算法知到智慧樹(shù)章節(jié)測(cè)試課后答案2024年秋浙江大學(xué)_第3頁(yè)
機(jī)器學(xué)習(xí):模型與算法知到智慧樹(shù)章節(jié)測(cè)試課后答案2024年秋浙江大學(xué)_第4頁(yè)
免費(fèi)預(yù)覽已結(jié)束,剩余5頁(yè)可下載查看

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

機(jī)器學(xué)習(xí):模型與算法知到智慧樹(shù)章節(jié)測(cè)試課后答案2024年秋浙江大學(xué)第一章單元測(cè)試

sigmoid函數(shù)的值域?yàn)???/p>

)。

A:(0,1)B:(0,1]C:[0,1)D:[0,1]

答案:(0,1)哪些屬于監(jiān)督學(xué)習(xí)重要元素?(

)。

A:標(biāo)注數(shù)據(jù)B:數(shù)據(jù)映射C:學(xué)習(xí)模型D:損失函數(shù)

答案:標(biāo)注數(shù)據(jù);學(xué)習(xí)模型;損失函數(shù)分析不同變量之間存在關(guān)系的研究叫回歸分析。(

A:對(duì)B:錯(cuò)

答案:對(duì)強(qiáng)可學(xué)習(xí)和弱可學(xué)習(xí)是等價(jià)的。(

A:錯(cuò)B:對(duì)

答案:對(duì)下面的說(shuō)法正確的是()。

A:B:邏輯回歸屬于線性回歸C:Sigmoid的函數(shù)是單調(diào)遞減的D:邏輯回歸只能處理二分類問(wèn)題

答案:邏輯回歸只能處理二分類問(wèn)題

第二章單元測(cè)試

下面的說(shuō)法正確的是(

)。

A:K均值聚類算法實(shí)質(zhì)上是最小化每個(gè)類簇的方差。B:協(xié)方差不能反應(yīng)兩個(gè)變量之間的相關(guān)度。C:在K均值聚類算法中初始化聚類中心對(duì)聚類結(jié)果影響不大。D:X和Y彼此獨(dú)立,|cor(X,Y)|可能不等于零。

答案:K均值聚類算法實(shí)質(zhì)上是最小化每個(gè)類簇的方差。哪一項(xiàng)是皮爾遜相關(guān)系數(shù)的性質(zhì)?(

)。

A:X與Y協(xié)方差的絕對(duì)值小于等于1B:X與Y協(xié)方差的絕對(duì)值大于1C:X與Y協(xié)方差的絕對(duì)值小于1D:X與Y協(xié)方差的絕對(duì)值大于等于1

答案:X與Y協(xié)方差的絕對(duì)值小于等于1下面的說(shuō)法正確的有(

)。

A:在K均值聚類算法中,未達(dá)到迭代次數(shù)上限,迭代不會(huì)停止。B:在K均值聚類算法中,我們不必事先就確定聚類數(shù)目。C:EM算法分為求取期望和期望最大化兩個(gè)步驟。D:在K均值聚類算法中,歐式距離與方差量綱相同。

答案:EM算法分為求取期望和期望最大化兩個(gè)步驟。;在K均值聚類算法中,歐式距離與方差量綱相同。K均值聚類屬于監(jiān)督學(xué)習(xí)。(

A:錯(cuò)B:對(duì)

答案:錯(cuò)特征人臉?lè)椒ǖ谋举|(zhì)是用稱為“特征人臉”的特征向量按照線性組合形式表達(dá)每一張?jiān)既四槇D像。(

A:對(duì)B:錯(cuò)

答案:對(duì)

第三章單元測(cè)試

下列哪一項(xiàng)不是運(yùn)用半監(jiān)督學(xué)習(xí)的原因(

)。

A:存在大量為標(biāo)記數(shù)據(jù)B:有標(biāo)注的數(shù)據(jù)很稀少C:數(shù)據(jù)標(biāo)注非常昂貴D:為獲得更高的機(jī)器學(xué)習(xí)性能

答案:為獲得更高的機(jī)器學(xué)習(xí)性能在半監(jiān)督學(xué)習(xí)中下列哪種說(shuō)法是錯(cuò)誤的(

)。

A:“假設(shè)數(shù)據(jù)分布在一個(gè)流形架構(gòu)上,鄰近的樣本擁有相似的輸出值。”屬于流形假設(shè)B:“假設(shè)數(shù)據(jù)存在簇結(jié)構(gòu),同一個(gè)簇多的樣本屬于同一類別?!睂儆诰垲惣僭O(shè)C:“聚類假設(shè)的推廣,對(duì)輸出值沒(méi)有限制”屬于聚類假設(shè)的范疇。D:“聚類假設(shè)的推廣,對(duì)輸出值沒(méi)有限制”屬于流形假設(shè)的范疇。

答案:“聚類假設(shè)的推廣,對(duì)輸出值沒(méi)有限制”屬于聚類假設(shè)的范疇。

半監(jiān)督學(xué)習(xí)方法有:(

)。

A:K均值聚類B:半監(jiān)督SVMC:基于圖表的半監(jiān)督學(xué)習(xí)D:生成方法

答案:半監(jiān)督SVM;基于圖表的半監(jiān)督學(xué)習(xí);生成方法在有標(biāo)記數(shù)據(jù)極少的情形下往往比其他方法性能更好是半監(jiān)督學(xué)習(xí)生成式方法流程的優(yōu)點(diǎn)。(

A:錯(cuò)B:對(duì)

答案:對(duì)基于圖表的半監(jiān)督學(xué)習(xí)不用占有太大內(nèi)存。(

A:對(duì)B:錯(cuò)

答案:錯(cuò)

第四章單元測(cè)試

下列說(shuō)法正確的是(

)。

A:感知機(jī)網(wǎng)絡(luò)只有輸入層/輸出層,無(wú)隱藏層。B:感知機(jī)網(wǎng)絡(luò)可以擬合復(fù)雜的數(shù)據(jù)。C:BP算法是一種將隱藏層誤差反向傳播給輸出層進(jìn)行參數(shù)更新的方法。D:Hot-hot向量可以用盡可能少的維數(shù)對(duì)數(shù)據(jù)進(jìn)行描述。

答案:感知機(jī)網(wǎng)絡(luò)只有輸入層/輸出層,無(wú)隱藏層。一元變量所構(gòu)成函數(shù)f在x處的梯度為()

A:B:C:D:

答案:

常用的池化操作有::(

)。

A:最大池化B:平均池化C:差值池化D:最小池化

答案:最大池化;平均池化One-hot向量可以刻畫(huà)詞與詞之間的相似性(

A:錯(cuò)B:對(duì)

答案:錯(cuò)前饋神經(jīng)網(wǎng)絡(luò)中存在反饋。(

A:錯(cuò)B:對(duì)

答案:錯(cuò)

第五章單元測(cè)試

下列說(shuō)法錯(cuò)誤的是(

)。

A:循環(huán)神經(jīng)網(wǎng)絡(luò)的神經(jīng)元存在自反饋。B:循環(huán)神經(jīng)網(wǎng)絡(luò)已經(jīng)被廣泛應(yīng)用在語(yǔ)音識(shí)別、語(yǔ)言模型以及自然語(yǔ)言生成等任務(wù)上。C:循環(huán)神經(jīng)網(wǎng)絡(luò)不能處理任意長(zhǎng)度的序列D:循環(huán)神經(jīng)網(wǎng)絡(luò)比前饋神經(jīng)網(wǎng)絡(luò)更加符合生物神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)。

答案:循環(huán)神經(jīng)網(wǎng)絡(luò)不能處理任意長(zhǎng)度的序列下列說(shuō)法正確的是(

)。

A:典型的前饋神經(jīng)網(wǎng)絡(luò)存在梯度爆炸的問(wèn)題B:如果一個(gè)完全連接的RNN有足夠數(shù)量的sigmoid型隱藏神經(jīng)元,它可以以任意的準(zhǔn)確率去近似任何一個(gè)非線性動(dòng)力系統(tǒng)個(gè)。C:雙向RNN很好地解決了梯度消失的問(wèn)題D:長(zhǎng)期短期記憶網(wǎng)絡(luò)是一種前饋神經(jīng)網(wǎng)絡(luò)。

答案:如果一個(gè)完全連接的RNN有足夠數(shù)量的sigmoid型隱藏神經(jīng)元,它可以以任意的準(zhǔn)確率去近似任何一個(gè)非線性動(dòng)力系統(tǒng)個(gè)。雙向RNN反向傳播過(guò)程也是雙向的。(

A:對(duì)B:錯(cuò)

答案:對(duì)信息抽取是指從結(jié)構(gòu)化文本中抽取信息。(

A:錯(cuò)B:對(duì)

答案:錯(cuò)

下列哪些屬于組合式attention結(jié)構(gòu):(

)。

A:Self-AttentionB:Multi-Step

AttentionC:Attention

over

AttentionD:Memory-based

Attention

答案:Multi-Step

Attention;Attention

over

Attention;Memory-based

Attention

第六章單元測(cè)試

與傳統(tǒng)結(jié)構(gòu)化數(shù)據(jù)庫(kù)相比,下列哪一項(xiàng)不是知識(shí)圖譜的優(yōu)勢(shì)?(

)。

A:更有效表達(dá)數(shù)據(jù)的關(guān)聯(lián)類型。B:更容易實(shí)現(xiàn)。C:支持更高效的基于路徑的檢索與分析D:形成更靈活的異構(gòu)數(shù)據(jù)關(guān)聯(lián)

答案:更容易實(shí)現(xiàn)。下列哪一項(xiàng)不是知識(shí)圖譜的特點(diǎn)(

)。

A:填補(bǔ)數(shù)據(jù)與語(yǔ)義之間的鴻溝B:無(wú)法對(duì)抗信息過(guò)載C:提供啟發(fā)式結(jié)構(gòu)D:是支持知識(shí)驅(qū)動(dòng)型任務(wù)的有例工具

答案:無(wú)法對(duì)抗信息過(guò)載

下列哪些屬于知識(shí)圖譜的應(yīng)用::(

)。

A:物體識(shí)別B:輔助大數(shù)據(jù)分析C:推薦系統(tǒng)D:搜索與問(wèn)答

答案:輔助大數(shù)據(jù)分析;推薦系統(tǒng);搜索與問(wèn)答基于深度學(xué)習(xí)的命名實(shí)體識(shí)別是目前研究與應(yīng)用的主流方法。(

A:對(duì)B:錯(cuò)

答案:對(duì)訓(xùn)練樣本噪聲小是遠(yuǎn)程監(jiān)督的優(yōu)點(diǎn)。(

A:對(duì)B:錯(cuò)

答案:錯(cuò)

第七章單元測(cè)試

下列不屬于強(qiáng)化學(xué)習(xí)的特點(diǎn)的是(

)。

A:序列決策過(guò)程B:基于評(píng)估C:實(shí)時(shí)反饋D:交互性

答案:實(shí)時(shí)反饋下列關(guān)于環(huán)境的描述錯(cuò)誤的是(

)。

A:向智能主體反饋狀態(tài)和獎(jiǎng)勵(lì)。B:系統(tǒng)中智能主體以外的部分。C:按照一定的規(guī)律發(fā)生變化。D:環(huán)境的變化受到智能主體的影響。

答案:環(huán)境的變化受到智能主體的影響。

關(guān)于智能主體下列描述正確的有:(

)。

A:智能主體可能知道也可能不知道環(huán)境的變化規(guī)律B:動(dòng)作是智能主體對(duì)環(huán)境的被動(dòng)反應(yīng)。C:按照某種策略,根據(jù)當(dāng)前的狀態(tài)選擇合適的動(dòng)作。D:狀態(tài)指的是智能主體對(duì)環(huán)境的一種解釋。

答案:智能主體可能知道也可能不知道環(huán)境的變化規(guī)律;按照某種策略,根據(jù)當(dāng)前的狀態(tài)選擇合適的動(dòng)作。;狀態(tài)指的是智能主體對(duì)環(huán)境的一種解釋。一個(gè)好的策略是在當(dāng)前狀態(tài)下采取一個(gè)行動(dòng)后,該行動(dòng)能夠在未來(lái)收到最大化反饋。(

A:錯(cuò)B:對(duì)

答案:對(duì)Deep

Q-learning能夠用有限的參數(shù)刻畫(huà)無(wú)限的狀態(tài)。(

A:對(duì)B:錯(cuò)

答案:對(duì)

第八章單元測(cè)試

下列不屬于AutoML方法的是(

)。

A:超參數(shù)優(yōu)化B:遷移學(xué)習(xí)C:元學(xué)習(xí)D:神經(jīng)架構(gòu)搜索

答案:遷移學(xué)習(xí)下列說(shuō)法錯(cuò)誤的是(

)。

A:進(jìn)化算法是一種無(wú)梯度優(yōu)化算法。B:進(jìn)化算法具有自組織、自適應(yīng)、自學(xué)習(xí)等特點(diǎn)。C:進(jìn)化算法可能會(huì)得到全局最優(yōu)解。D:進(jìn)化算法效率很高。

答案:進(jìn)化算法效率很高。下列哪些屬于AutoML系統(tǒng):(

)。

A:自動(dòng)網(wǎng)絡(luò)B:Hyperopt-SklearnC:Auto-WEKAD:TPOT

答案:自動(dòng)網(wǎng)絡(luò);Hyperopt-Sklearn;Auto-WEKA;TPOT動(dòng)態(tài)規(guī)劃是從前驅(qū)狀態(tài)推斷后繼狀態(tài)來(lái)計(jì)算賦值函數(shù)。(

A:對(duì)B:錯(cuò)

答案:對(duì)目前以深度學(xué)習(xí)為代表的人工智能計(jì)算需求,主要采用GPU、FPGA等已有的適合并行計(jì)算的通用芯片來(lái)實(shí)現(xiàn)加速。(

A:錯(cuò)B:對(duì)

答案:對(duì)

第九章單元測(cè)試

下列關(guān)于Tensorflow說(shuō)法錯(cuò)誤的是(

)。

A:可以繪制計(jì)算結(jié)構(gòu)圖

。B:是一款神經(jīng)網(wǎng)絡(luò)的Python外部結(jié)構(gòu)包。C:由Facebook進(jìn)行開(kāi)發(fā)。D:可以把編輯好的文件轉(zhuǎn)換成更高效的C++,并在后端運(yùn)行。

答案:由Facebook進(jìn)行開(kāi)發(fā)。函數(shù)tf.reduce_mean(v)的作用是(

)。

A:求數(shù)組v的標(biāo)準(zhǔn)差B:求v數(shù)組的平均數(shù)C:求數(shù)組v各項(xiàng)與平均數(shù)的差值D:求數(shù)組v的方差

答案:求數(shù)組v的標(biāo)準(zhǔn)差下列屬于Tensorflow的有點(diǎn)的是:(

)。

A:它擅長(zhǎng)與訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)B:開(kāi)源性。C:是當(dāng)今最好用的神經(jīng)網(wǎng)絡(luò)庫(kù)之一。D:降低了深度學(xué)習(xí)的開(kāi)發(fā)成本和開(kāi)發(fā)難度。

答案:它擅長(zhǎng)與訓(xùn)練深度神經(jīng)網(wǎng)絡(luò);開(kāi)源性。;是當(dāng)今最好用的神經(jīng)網(wǎng)絡(luò)庫(kù)之一。;降低了深度學(xué)習(xí)的開(kāi)發(fā)成本和開(kāi)發(fā)難度。PyTorch的API是圍繞命令行式的編程(

A:錯(cuò)B:對(duì)

答案:對(duì)TensorFlow在2.0.0版本后將取代計(jì)算題稱為默認(rèn)設(shè)置。(

A:對(duì)B:錯(cuò)

答案:對(duì)

第十章單元測(cè)試

下列說(shuō)法錯(cuò)誤的是(

)。

A:因果效應(yīng)是指因變量T改變一個(gè)單位時(shí),果變量Y的變化程度。B:因果的關(guān)鍵因素是平衡混淆變量X的分布。C:因果的定義是變量T是變量Y的原因,當(dāng)且僅當(dāng)保持其它所有變量不變的情況下,改變T的值能導(dǎo)致Y的值發(fā)生變化。D:因果推理的關(guān)鍵因素是保證其它變量不變,改變果變量Y。

答案:因果推理的關(guān)鍵因素是保證其它變量不變,改變果變量Y。下列不屬于

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論