MOOC 人工智能:模型與算法-浙江大學(xué) 中國大學(xué)慕課答案_第1頁
MOOC 人工智能:模型與算法-浙江大學(xué) 中國大學(xué)慕課答案_第2頁
MOOC 人工智能:模型與算法-浙江大學(xué) 中國大學(xué)慕課答案_第3頁
MOOC 人工智能:模型與算法-浙江大學(xué) 中國大學(xué)慕課答案_第4頁
MOOC 人工智能:模型與算法-浙江大學(xué) 中國大學(xué)慕課答案_第5頁
已閱讀5頁,還剩27頁未讀 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

MOOC人工智能:模型與算法-浙江大學(xué)中國大學(xué)慕課答案第一周測試1、問題:如果一個問題或者任務(wù)不可計算,那么對這個問題或任務(wù)的描述哪一句是正確的()選項:A、無法將該問題或任務(wù)所需數(shù)據(jù)一次性裝入內(nèi)存進行計算B、該問題或任務(wù)所需計算時間是線性增加的C、圖靈機不可停機D、該問題或任務(wù)所需計算時間是非線性增加的正確答案:【圖靈機不可停機】2、問題:下面哪一句話準確描述了摩爾定律()選項:A、摩爾定律描述了計算機內(nèi)存大小隨時間不斷增長的規(guī)律B、摩爾定律描述了計算機的計算速度每一年半增長一倍的規(guī)律C、摩爾定律描述了計算機的體積大小隨時間不斷減少的規(guī)律D、摩爾定律描述了互聯(lián)網(wǎng)所鏈接節(jié)點隨時間不斷增長的規(guī)律正確答案:【摩爾定律描述了計算機的計算速度每一年半增長一倍的規(guī)律】3、問題:下面哪個方法于20世紀被提出來,用來描述對計算機智能水平進行測試()選項:A、摩爾定律B、香農(nóng)定律C、圖靈測試D、費馬定理正確答案:【圖靈測試】4、問題:1955年,麥卡錫、明斯基、香農(nóng)和諾切斯特四位學(xué)者首次提出“artificialintelligence(人工智能)”這個概念時,希望人工智能研究的主題是()選項:A、避免計算機控制人類B、全力研究人類大腦C、人工智能倫理D、用計算機來模擬人類智能正確答案:【用計算機來模擬人類智能】5、問題:下面哪個描述不屬于對人工智能的分類()選項:A、領(lǐng)域人工智能/弱人工智能B、生物智能C、通用人工智能/跨域人工智能D、混合增強人工智能正確答案:【生物智能】6、問題:下面哪一句話是正確的()選項:A、人工智能就是機器學(xué)習(xí)B、機器學(xué)習(xí)就是深度學(xué)習(xí)C、人工智能就是深度學(xué)習(xí)D、深度學(xué)習(xí)是一種機器學(xué)習(xí)的方法正確答案:【深度學(xué)習(xí)是一種機器學(xué)習(xí)的方法】7、問題:以邏輯規(guī)則為核心的邏輯推理、以數(shù)據(jù)驅(qū)動為核心的機器學(xué)習(xí)和以問題引導(dǎo)為核心的強化學(xué)習(xí)是三種人工智能的方法,下面哪一句話的描述是不正確的()選項:A、以邏輯規(guī)則為核心的邏輯推理方法解釋性強B、目前以數(shù)據(jù)驅(qū)動為核心的機器學(xué)習(xí)方法需要從具有標簽的大數(shù)據(jù)中來學(xué)習(xí)數(shù)據(jù)模式,完成給定任務(wù)C、目前以數(shù)據(jù)驅(qū)動為核心的機器學(xué)習(xí)方法可從任意大數(shù)據(jù)(無論數(shù)據(jù)是具備標簽還是不具備標簽)中來學(xué)習(xí)數(shù)據(jù)模式,完成給定任務(wù)D、強化學(xué)習(xí)的基本特征是智能體與環(huán)境不斷進行交互,在交互過程不斷學(xué)習(xí)來完成特定任務(wù)正確答案:【目前以數(shù)據(jù)驅(qū)動為核心的機器學(xué)習(xí)方法可從任意大數(shù)據(jù)(無論數(shù)據(jù)是具備標簽還是不具備標簽)中來學(xué)習(xí)數(shù)據(jù)模式,完成給定任務(wù)】8、問題:下面對人類智能和機器智能的描述哪一句是不正確的()選項:A、人類智能能夠自我學(xué)習(xí),機器智能大多是依靠數(shù)據(jù)和規(guī)則驅(qū)動B、人類智能具有自適應(yīng)特點,機器智能則大多是“依葫蘆畫瓢”C、人類智能和機器智能均具備常識,因此能夠進行常識性推理D、人類智能具備直覺和頓悟能力,機器智能很難具備這樣的能力正確答案:【人類智能和機器智能均具備常識,因此能夠進行常識性推理】9、問題:我們常說“人類是智能回路的總開關(guān)”,即人類智能決定著任何智能的高度、廣度和深度,下面哪一句話對這個觀點的描述不正確()選項:A、人類智能是機器智能的設(shè)計者B、機器智能目前無法完全模擬人類所有智能C、機器智能目前已經(jīng)超越了人類智能D、機器智能和人類智能相互協(xié)同所產(chǎn)生的智能能力可超越人類智能或機器智能正確答案:【機器智能目前已經(jīng)超越了人類智能】10、問題:下面哪句話描述了現(xiàn)有深度學(xué)習(xí)這一種人工智能方法的特點()選項:A、小數(shù)據(jù),大任務(wù)B、大數(shù)據(jù),小任務(wù)C、小數(shù)據(jù),小任務(wù)D、大數(shù)據(jù),大任務(wù)正確答案:【大數(shù)據(jù),小任務(wù)】11、問題:20世紀30年代,圍繞可計算這一重要思想,一些模型被提出。下述哪個模型不是于這個時期在可計算思想推動下產(chǎn)生的()選項:A、原始遞歸函數(shù)B、lambda演算C、圖靈機D、馮諾依曼模型正確答案:【馮諾依曼模型】12、問題:德國著名數(shù)學(xué)家希爾伯特在1900年舉辦的國際數(shù)學(xué)家大會中所提出的“算術(shù)公理的相容性(thecompatibilityofthearithmeticalaxioms)”這一問題推動了可計算思想研究的深入。在希爾伯特所提出的這個問題中,一個算術(shù)公理系統(tǒng)是相容的需要滿足三個特點。下面哪個描述不屬于這三個特點之一()選項:A、完備性,即所有能夠從該形式化系統(tǒng)推導(dǎo)出來的命題,都可以從這個形式化系統(tǒng)推導(dǎo)出來。B、一致性,即一個命題不可能同時為真或為假C、可判定性,即算法在有限步內(nèi)判定命題的真?zhèn)蜠、復(fù)雜性,即算法性能與輸入數(shù)據(jù)大小相關(guān)正確答案:【復(fù)雜性,即算法性能與輸入數(shù)據(jù)大小相關(guān)】13、問題:下面哪個描述不屬于邱奇-圖靈論題所包含的意思()選項:A、凡是可計算的函數(shù)都可以用圖靈機計算B、任何計算,如果存在一個有效過程,它就能被圖靈機實現(xiàn)C、有些數(shù)學(xué)問題是不可求解的(圖靈不可停機的)D、任何表達力足夠強的(遞歸可枚舉)形式系統(tǒng)同時滿足一致性和完備性正確答案:【任何表達力足夠強的(遞歸可枚舉)形式系統(tǒng)同時滿足一致性和完備性】第二周測試1、問題:在啟發(fā)式搜索(有信息搜索)中,評價函數(shù)的作用是()選項:A、判斷搜索算法的空間復(fù)雜度B、判斷搜索算法的時間復(fù)雜度C、從當前節(jié)點出發(fā)來選擇后續(xù)節(jié)點D、計算從當前節(jié)點到目標節(jié)點之間的最小代價值正確答案:【從當前節(jié)點出發(fā)來選擇后續(xù)節(jié)點】2、問題:在啟發(fā)式搜索(有信息搜索)中,啟發(fā)函數(shù)的作用是()選項:A、判斷搜索算法的空間復(fù)雜度B、判斷搜索算法的時間復(fù)雜度C、從當前節(jié)點出發(fā)來選擇后續(xù)節(jié)點D、計算從當前節(jié)點到目標節(jié)點之間的最小代價值正確答案:【計算從當前節(jié)點到目標節(jié)點之間的最小代價值】3、問題:在貪婪最佳優(yōu)先搜索中,評價函數(shù)取值和啟發(fā)函數(shù)取值之間的關(guān)系是()選項:A、相等B、大于C、小于D、不等于正確答案:【相等】4、問題:在A*搜索算法中,評價函數(shù)可以如下定義()選項:A、評價函數(shù)之值=(從起始節(jié)點出發(fā)到當前節(jié)點最小開銷代價)+(從當前節(jié)點出發(fā)到目標結(jié)點最小開銷代價)B、評價函數(shù)之值=(從起始節(jié)點出發(fā)到當前節(jié)點最小開銷代價)*(從當前節(jié)點出發(fā)到目標結(jié)點最小開銷代價)C、評價函數(shù)之值=(從起始節(jié)點出發(fā)到當前節(jié)點最小開銷代價)-(從當前節(jié)點出發(fā)到目標結(jié)點最小開銷代價)D、評價函數(shù)之值=(從起始節(jié)點出發(fā)到當前節(jié)點最小開銷代價)/(從當前節(jié)點出發(fā)到目標結(jié)點最小開銷代價)正確答案:【評價函數(shù)之值=(從起始節(jié)點出發(fā)到當前節(jié)點最小開銷代價)+(從當前節(jié)點出發(fā)到目標結(jié)點最小開銷代價)】5、問題:A*算法是一種有信息搜索算法,在最短路徑搜索中引入的輔助信息是()選項:A、路途中天氣和交通狀況等信息B、旅行者興趣偏好信息C、任意一個城市到目標城市之間直線距離D、任意一個城市到起始城市之間直線距離正確答案:【任意一個城市到目標城市之間直線距離】6、問題:為了保證A*算法是最優(yōu)的,需要啟發(fā)函數(shù)具有可容(admissible)和一致(consistency)的特點,下面對啟發(fā)函數(shù)具有可容性這一特點的解釋正確的是()選項:A、啟發(fā)函數(shù)是遞增的B、啟發(fā)函數(shù)不會過高估計從當前節(jié)點到目標結(jié)點之間的實際開銷代價C、啟發(fā)函數(shù)不會過高估計從起始節(jié)點到目標結(jié)點之間的實際開銷代價D、啟發(fā)函數(shù)是遞減的正確答案:【啟發(fā)函數(shù)不會過高估計從當前節(jié)點到目標結(jié)點之間的實際開銷代價】7、問題:下面對Alpha-Beta剪枝搜索算法描述中,哪句描述是不正確的()選項:A、剪枝本身不影響算法輸出結(jié)果B、節(jié)點先后次序會影響剪枝效率C、節(jié)點先后次序不會影響剪枝效率D、在大多數(shù)情況下,剪枝會提高算法效率正確答案:【節(jié)點先后次序不會影響剪枝效率】8、問題:下面對minimax搜索算法描述中,哪句描述是不正確的()選項:A、給定一個游戲搜索樹,minimax算法通過每個節(jié)點的minimax值來決定最優(yōu)策略B、MAX節(jié)點希望自己收益最大化C、MIN節(jié)點希望對方收益最小化D、minimax搜索不需要遍歷游戲樹中所有節(jié)點正確答案:【minimax搜索不需要遍歷游戲樹中所有節(jié)點】9、問題:Alpha和Beta兩個值在Alpha-Beta剪枝搜索中被用來判斷某個節(jié)點的后續(xù)節(jié)點是否可被剪枝,下面對Alpha和Beta的初始化取值描述正確的是()選項:A、Alpha和Beta可隨機初始化B、Alpha的初始值大于Beta的初始值C、Alpha和Beta初始值分別為正無窮大和負無窮大D、Alpha和Beta初始值分別為負無窮大和正無窮大正確答案:【Alpha和Beta初始值分別為負無窮大和正無窮大】10、問題:下面對上限置信區(qū)間(UpperConfidenceBound,UCB)算法在多臂賭博機中的描述,哪句描述是不正確的()選項:A、UCB算法在探索-利用(exploration-exploitation)之間尋找平衡B、UCB算法既考慮拉動在過去時間內(nèi)獲得最大平均獎賞的賭博機,又希望去選擇那些拉動臂膀次數(shù)最少的賭博機C、UCB算法是優(yōu)化序列決策問題的方法D、UCB算法每次隨機選擇一個賭博機來拉動其臂膀正確答案:【UCB算法每次隨機選擇一個賭博機來拉動其臂膀】11、問題:下面哪一種有序組合是蒙特卡洛樹搜索中一次正確的迭代步驟()選項:A、選舉、擴展、模擬、反向傳播B、反向傳播、選舉、擴展、模擬C、反向傳播、擴展、模擬、選舉D、擴展、模擬、采樣、選舉正確答案:【選舉、擴展、模擬、反向傳播】12、問題:下面對minimax搜索、alpha-beta剪枝搜索和蒙特卡洛樹搜索的描述中,哪一句描述是不正確的()選項:A、三種搜索算法中,只有蒙特卡洛樹搜索是采樣搜索B、alpha-beta剪枝搜索和蒙特卡洛樹搜索都是非窮舉式搜索C、minimax是窮舉式搜索D、對于一個規(guī)模較小的游戲樹,alpha-beta剪枝搜索和minimax搜索的結(jié)果會不同正確答案:【對于一個規(guī)模較小的游戲樹,alpha-beta剪枝搜索和minimax搜索的結(jié)果會不同】第三周測試1、問題:如果命題p為真、命題q為假,則下述哪個復(fù)合命題為真命題()選項:A、如果q則pB、p且qC、非pD、如果p則q正確答案:【如果q則p】2、問題:p和q均是原子命題,“如果p那么q”是由p和q組合得到的復(fù)合命題。下面對“如果p那么q”這一復(fù)合命題描述不正確的是()選項:A、無法用真值表來判斷“如果p那么q”的真假B、“如果p那么q”定義的是一種蘊涵關(guān)系(即充分條件)C、“如果p那么q”意味著命題q包含著命題p,即p是q的子集D、當p不成立時,“如果p那么q”恒為真正確答案:【無法用真值表來判斷“如果p那么q”的真假】3、問題:下面哪個復(fù)合命題與“如果秋天天氣變涼,那么大雁南飛越冬”是邏輯等價的()選項:A、如果大雁不南飛越冬,那么秋天天氣沒有變涼B、如果秋天天氣沒有變涼,那么大雁不南飛越冬C、如果秋天天氣變涼,那么大雁不南飛越冬D、如果大雁不南飛越冬,那么秋天天氣變涼正確答案:【如果大雁不南飛越冬,那么秋天天氣沒有變涼】4、問題:下面哪一句話對命題邏輯中的歸結(jié)(resolution)規(guī)則的描述是不正確的()選項:A、對命題q及其反命題應(yīng)用歸結(jié)法,所得到的命題為假命題B、在兩個析取復(fù)合命題中,如果命題q及其反命題分別出現(xiàn)在這兩個析取復(fù)合命題中,則通過歸結(jié)法可得到一個新的析取復(fù)合命題,只是在析取復(fù)合命題中要去除命題q及其反命題。C、如果命題q出現(xiàn)在一個析取復(fù)合命題中,命題q的反命題單獨存在,則通過歸結(jié)法可得到一個新的析取復(fù)合命題,只是在析取復(fù)合命題中要去除命題q及其反命題。D、對命題q及其反命題應(yīng)用歸結(jié)法,所得到的命題為空命題正確答案:【對命題q及其反命題應(yīng)用歸結(jié)法,所得到的命題為假命題】5、問題:下面哪一句話對命題范式的描述是不正確的()選項:A、一個析取范式是不成立的,當且僅當它包含一個不成立的簡單合取式B、有限個簡單合取式構(gòu)成的析取式稱為析取范式C、有限個簡單析取式構(gòu)成的合取式稱為合取范式D、一個合取范式是成立的,當且僅當它的每個簡單析取式都是成立的正確答案:【一個析取范式是不成立的,當且僅當它包含一個不成立的簡單合取式】6、問題:下面哪個邏輯等價關(guān)系是不成立的()選項:A、B、C、D、正確答案:【】7、問題:下面哪個謂詞邏輯的推理規(guī)則是不成立的()選項:A、B、C、D、正確答案:【】8、問題:知識圖譜可視為包含多種關(guān)系的圖。在圖中,每個節(jié)點是一個實體(如人名、地名、事件和活動等),任意兩個節(jié)點之間的邊表示這兩個節(jié)點之間存在的關(guān)系。下面對知識圖譜的描述,哪一句話的描述不正確()選項:A、知識圖譜中兩個節(jié)點之間僅能存在一條邊B、知識圖譜中的節(jié)點可以是實體或概念C、知識圖譜中一條邊連接了兩個節(jié)點,可以用來表示這兩個節(jié)點存在某一關(guān)系D、知識圖譜中一條邊可以用一個三元組來表示正確答案:【知識圖譜中兩個節(jié)點之間僅能存在一條邊】9、問題:如果知識圖譜中有David和Mike兩個節(jié)點,他們之間具有classmate和brother關(guān)系。在知識圖譜中還存在其他豐富節(jié)點和豐富關(guān)系(如couple,parent等)前提下,下面描述不正確的是()選項:A、僅可從知識圖譜中找到classmate和brother這個謂詞的正例,無法找到這兩個謂詞的反例。B、可以從知識圖譜中形成classmateDavid,Mike的表達,這里classmate是謂詞。C、可以從知識圖譜中形成brotherDavid,Mike的表達,這里brother是謂詞。D、可從知識圖譜中找到classmate和brother這個謂詞的正例和反例。正確答案:【僅可從知識圖譜中找到classmate和brother這個謂詞的正例,無法找到這兩個謂詞的反例?!?0、問題:在一階歸納學(xué)習(xí)中,只要給定目標謂詞,F(xiàn)OIL算法從若干樣例出發(fā),不斷測試所得到推理規(guī)則是否還包含反例,一旦不包含負例,則學(xué)習(xí)結(jié)束,展示了“歸納學(xué)習(xí)”能力。下面所列出的哪個樣例,不屬于FOIL在學(xué)習(xí)推理規(guī)則中所利用的樣例。選項:A、信息增益超過一定閾值推理規(guī)則涵蓋的例子B、背景知識樣例C、所得到推理規(guī)則涵蓋的正例D、所得到推理規(guī)則涵蓋的反例正確答案:【信息增益超過一定閾值推理規(guī)則涵蓋的例子】11、問題:下面對一階歸納推理(FOIL)中信息增益值(informationgain)闡釋不正確的是()選項:A、信息增益值大小與背景知識樣例數(shù)目有關(guān)。B、信息增益值用來判斷向推理規(guī)則中所加入前提約束謂詞的質(zhì)量。C、在算法結(jié)束前,每次向推理規(guī)則中加入一個前提約束謂詞,該前提約束謂詞得到的新推理規(guī)則具有最大的信息增益值。D、在計算信息增益值過程中,需要利用所得到的新推理規(guī)則和舊推理規(guī)則分別涵蓋的正例和反例數(shù)目。正確答案:【信息增益值大小與背景知識樣例數(shù)目有關(guān)?!康谒闹軠y試1、問題:基于知識圖譜的路徑排序推理方法可屬于如下哪一種方法()選項:A、監(jiān)督學(xué)習(xí)(即利用標注數(shù)據(jù))B、一階邏輯推理C、無監(jiān)督學(xué)習(xí)(即無標注數(shù)據(jù))D、因果推理正確答案:【監(jiān)督學(xué)習(xí)(即利用標注數(shù)據(jù))】2、問題:下面哪個步驟不屬于基于知識圖譜的路徑排序推理方法中的一個步驟()選項:A、定義和選擇do算子操作B、定義和選擇若干標注訓(xùn)練數(shù)據(jù)C、定義和選擇訓(xùn)練數(shù)據(jù)的特征D、定義和選擇某一特定的分類器正確答案:【定義和選擇do算子操作】3、問題:在基于知識圖譜的路徑排序推理方法中,最后訓(xùn)練所得分類器的功能是()選項:A、給定兩個實體(知識圖譜中的兩個節(jié)點),判斷其是否具有分類器所表達的關(guān)系(即節(jié)點之間是否具有分類器所能夠辨認的關(guān)系)B、判斷一個給定實體(知識圖譜中的一個節(jié)點)是否存在鄰接節(jié)點C、給定兩個實體(知識圖譜中的兩個節(jié)點),判斷其是否存在超過一定長度的路徑D、給定兩個實體(知識圖譜中的兩個節(jié)點),判斷其是否存在超過小于一定長度的路徑正確答案:【給定兩個實體(知識圖譜中的兩個節(jié)點),判斷其是否具有分類器所表達的關(guān)系(即節(jié)點之間是否具有分類器所能夠辨認的關(guān)系)】4、問題:下面對辛普森悖論描述不正確的是()選項:A、辛普森悖論的原因在于數(shù)據(jù)之間相互不關(guān)聯(lián)。B、在某些情況下,忽略潛在的“第三個變量”,可能會改變已有的結(jié)論,而我們常常卻一無所知。C、為了克服辛普森悖論,需要從觀測結(jié)果中尋找引發(fā)結(jié)果的原因,由果溯因。D、如果忽略了一些潛在因素,可能會導(dǎo)致全部數(shù)據(jù)上觀察到的結(jié)果卻在部分數(shù)據(jù)上不成立。正確答案:【辛普森悖論的原因在于數(shù)據(jù)之間相互不關(guān)聯(lián)?!?、問題:下面哪個描述的問題不屬于因果分析的內(nèi)容()選項:A、購買了A商品的顧客是否會購買B商品B、如果商品價格漲價一倍,預(yù)測銷售量P′(sales)的變化C、如果放棄吸煙,預(yù)測癌癥P′(cancer)的概率D、如果廣告投入增長一倍,預(yù)測銷售量的增長正確答案:【購買了A商品的顧客是否會購買B商品】6、問題:下面哪個模型不屬于用來進行因果推理的模型()選項:A、有向有環(huán)圖B、結(jié)構(gòu)因果模型C、因果圖D、貝葉斯網(wǎng)絡(luò)正確答案:【有向有環(huán)圖】7、問題:下面哪個說法是不正確的()選項:A、一個有向無環(huán)圖無法唯一地決定一個聯(lián)合分布B、一個有向無環(huán)圖唯一地決定一個聯(lián)合分布C、一個聯(lián)合分布不能唯一地決定有向無環(huán)圖D、在有向無環(huán)圖中,父輩節(jié)點“促成”了孩子節(jié)點的取值正確答案:【一個有向無環(huán)圖無法唯一地決定一個聯(lián)合分布】8、問題:在因果推理中,D-分離(d-separation)的作用是()選項:A、用于判斷集合A中變量是否與集合B中變量相互獨立(給定集合C)B、用于判斷集合A中變量是否與集合B中變量相關(guān)(給定集合C)C、用于判斷集合A中變量是否與集合B中變量是否存在鏈接D、用于判斷集合A中變量是否與集合B中變量是否不存在鏈接正確答案:【用于判斷集合A中變量是否與集合B中變量相互獨立(給定集合C)】9、問題:下面對干預(yù)(intervention)和do算子(do-calculus)描述不正確的是()選項:A、do(x)=a表示將DAG中指向節(jié)點x的所有節(jié)點取值均固定為aB、do算子的意思可理解為“干預(yù)”(intervention)C、do(x)=a表示將DAG中指向節(jié)點x的有向邊全部切斷,并且將x的值固定為常數(shù)aD、干預(yù)(intervention)指的是固定(fix)系統(tǒng)中某個變量,然后改變系統(tǒng),觀察其他變量的變化正確答案:【do(x)=a表示將DAG中指向節(jié)點x的所有節(jié)點取值均固定為a】10、問題:下面對反事實推理(counterfactualmodel)描述不正確的是()選項:A、條件變量對于結(jié)果變量的因果性就是A成立時B的狀態(tài)與A取負向值時“反事實”狀態(tài)(B')之間的差異。如果這種差異存在且在統(tǒng)計上是顯著的,說明條件變量與結(jié)果變量不存在因果關(guān)系。B、事實是指在某個特定變量(A)的影響下可觀測到的某種狀態(tài)或結(jié)果(B)。“反事實”是指在該特定變量(A)取負向值時可觀測到的狀態(tài)或結(jié)果(B')。C、條件變量對于結(jié)果變量的因果性就是A成立時B的狀態(tài)與A取負向值時“反事實”狀態(tài)(B')之間的差異。如果這種差異存在且在統(tǒng)計上是顯著的,說明條件變量與結(jié)果變量存在因果關(guān)系。D、反事實推理是用于因果推理的一種方法。正確答案:【條件變量對于結(jié)果變量的因果性就是A成立時B的狀態(tài)與A取負向值時“反事實”狀態(tài)(B')之間的差異。如果這種差異存在且在統(tǒng)計上是顯著的,說明條件變量與結(jié)果變量不存在因果關(guān)系?!?1、問題:下面對通過因果圖來進行因果推理所存在不足描述不正確的是()選項:A、因果圖無法刻畫數(shù)據(jù)之間的聯(lián)合分布。B、難以得到一個完整的DAG用于闡述變量之間的因果關(guān)系或者數(shù)據(jù)生成機制,使得DAG的應(yīng)用受到的巨大的阻礙。C、在因果推理中引入了do算子,即從系統(tǒng)之外人為控制某些變量。但是,這依賴于一個假定:干預(yù)某些變量并不會引起DAG中其他結(jié)構(gòu)的變化。D、DAG作為一種簡化的模型,在復(fù)雜系統(tǒng)中可能不完全適用,需要將其拓展到動態(tài)系統(tǒng)(如時間序列)。正確答案:【因果圖無法刻畫數(shù)據(jù)之間的聯(lián)合分布?!康谖逯軠y試1、問題:下面哪一種機器學(xué)習(xí)方法沒有利用標注數(shù)據(jù)()選項:A、無監(jiān)督學(xué)習(xí)B、有監(jiān)督學(xué)習(xí)C、半監(jiān)督學(xué)習(xí)D、回歸分析正確答案:【無監(jiān)督學(xué)習(xí)】2、問題:下面對經(jīng)驗風(fēng)險和期望風(fēng)險的描述中,哪一個屬于欠學(xué)習(xí)()選項:A、經(jīng)驗風(fēng)險大、期望風(fēng)險大B、經(jīng)驗風(fēng)險小、期望風(fēng)險小C、經(jīng)驗風(fēng)險小、期望風(fēng)險大D、經(jīng)驗風(fēng)險大、期望風(fēng)險小正確答案:【經(jīng)驗風(fēng)險大、期望風(fēng)險大】3、問題:下面對經(jīng)驗風(fēng)險和期望風(fēng)險的描述中,哪一個屬于過學(xué)習(xí)()選項:A、經(jīng)驗風(fēng)險小、期望風(fēng)險大B、經(jīng)驗風(fēng)險小、期望風(fēng)險小C、經(jīng)驗風(fēng)險大、期望風(fēng)險大D、經(jīng)驗風(fēng)險大、期望風(fēng)險小正確答案:【經(jīng)驗風(fēng)險小、期望風(fēng)險大】4、問題:下面對結(jié)構(gòu)風(fēng)險最小化的描述中,哪一個描述是不正確的()選項:A、為了更好保證結(jié)構(gòu)風(fēng)險最小化,可適當減少標注數(shù)據(jù)B、在結(jié)構(gòu)風(fēng)險最小化中,優(yōu)化求解目標為使得經(jīng)驗風(fēng)險與模型復(fù)雜度之和最小C、結(jié)構(gòu)風(fēng)險最小化在最小化經(jīng)驗風(fēng)險與降低模型復(fù)雜度之間尋找一種平衡D、結(jié)構(gòu)風(fēng)險最小化與經(jīng)驗風(fēng)險最小化的目標是不同的正確答案:【為了更好保證結(jié)構(gòu)風(fēng)險最小化,可適當減少標注數(shù)據(jù)】5、問題:監(jiān)督學(xué)習(xí)方法又可以分為生成方法(generativeapproach)和判別方法(discriminativeapproach)。下面哪個方法不屬于判別方法()選項:A、貝葉斯方法B、回歸模型C、神經(jīng)網(wǎng)絡(luò)D、Adaboosting正確答案:【貝葉斯方法】6、問題:下面哪句話語較為恰當刻畫了監(jiān)督學(xué)習(xí)方法中生成方法的特點()選項:A、授之于魚、不如授之于“漁”B、三個臭皮匠、抵一個諸葛亮C、畢其功于一役D、屢敗屢戰(zhàn)、屢戰(zhàn)屢敗、最后成功正確答案:【授之于魚、不如授之于“漁”】7、問題:在線性回歸模型中,所優(yōu)化的目標函數(shù)是()選項:A、最小化殘差平方和的均值B、最大化殘差平方和的均值C、最小化結(jié)構(gòu)風(fēng)險D、最大化結(jié)構(gòu)風(fēng)險正確答案:【最小化殘差平方和的均值】8、問題:線性回歸中優(yōu)化目標函數(shù)的求取過程與下面哪一種方法是相同的()選項:A、最小二乘法B、最大似然估計C、最大后驗概率D、最小化后驗概率正確答案:【最小二乘法】9、問題:下面哪一句話對AdaBoosting的描述是不正確的()選項:A、在所構(gòu)成的強分類器中,每個弱分類器的權(quán)重累加起來等于1B、該算法將若干弱分類器線性加權(quán)組合起來,形成一個強分類器C、在所構(gòu)成的強分類器中,每個弱分類器的權(quán)重是不一樣的D、在每一次訓(xùn)練弱分類器中,每個樣本的權(quán)重累加起來等于1正確答案:【在所構(gòu)成的強分類器中,每個弱分類器的權(quán)重累加起來等于1】10、問題:下面哪一句話對概率近似正確(probablyapproximatelycorrect,PAC)的描述是不正確的()選項:A、強可學(xué)習(xí)模型指學(xué)習(xí)模型僅能完成若干部分樣本識別與分類,其精度略高于隨機猜測B、在概率近似正確背景下,有“強可學(xué)習(xí)模型”和“弱可學(xué)習(xí)模型”C、強可學(xué)習(xí)模型指學(xué)習(xí)模型能夠以較高精度對絕大多數(shù)樣本完成識別分類任務(wù)D、強可學(xué)習(xí)和弱可學(xué)習(xí)是等價的,即如果已經(jīng)發(fā)現(xiàn)了“弱學(xué)習(xí)算法”,可將其提升(boosting)為“強學(xué)習(xí)算法”正確答案:【強可學(xué)習(xí)模型指學(xué)習(xí)模型僅能完成若干部分樣本識別與分類,其精度略高于隨機猜測】11、問題:AdaBoosting在最小化如下目標函數(shù)()選項:A、指數(shù)損失函數(shù)B、0-1損失函數(shù)C、平方損失函數(shù)D、絕對損失函數(shù)正確答案:【指數(shù)損失函數(shù)】12、問題:下面對回歸和分類的描述不正確的是()選項:A、回歸是一種無監(jiān)督學(xué)習(xí)、分類學(xué)習(xí)是有監(jiān)督學(xué)習(xí)B、兩者均是學(xué)習(xí)輸入變量和輸出變量之間潛在關(guān)系模型C、在回歸分析中,學(xué)習(xí)得到一個函數(shù)將輸入變量映射到連續(xù)輸出空間D、在分類模型中,學(xué)習(xí)得到一個函數(shù)將輸入變量映射到離散輸出空間正確答案:【回歸是一種無監(jiān)督學(xué)習(xí)、分類學(xué)習(xí)是有監(jiān)督學(xué)習(xí)】第六周測試1、問題:由于K均值聚類是一個迭代過程,我們需要設(shè)置其迭代終止條件。下面哪句話正確描述了K均值聚類的迭代終止條件()選項:A、已經(jīng)達到了迭代次數(shù)上限,或者前后兩次迭代中聚類質(zhì)心基本保持不變B、已經(jīng)達到了迭代次數(shù)上限,或者每個待聚類樣本分別歸屬唯一一個聚類集合C、已經(jīng)形成了K個聚類集合,或者已經(jīng)達到了迭代次數(shù)上限D(zhuǎn)、已經(jīng)形成了K個聚類集合,或者每個待聚類樣本分別歸屬唯一一個聚類集合正確答案:【已經(jīng)達到了迭代次數(shù)上限,或者前后兩次迭代中聚類質(zhì)心基本保持不變】2、問題:我們可以從最小化每個類簇的方差這一視角來解釋K均值聚類的結(jié)果,下面對這一視角描述不正確的是()(單選2分)選項:A、每個簇類的質(zhì)心累加起來最小B、最終聚類結(jié)果中每個聚類集合中所包含數(shù)據(jù)呈現(xiàn)出來差異性最小C、每個樣本數(shù)據(jù)分別歸屬于與其距離最近的聚類質(zhì)心所在聚類集合D、每個簇類的方差累加起來最小正確答案:【每個簇類的質(zhì)心累加起來最小】3、問題:下面哪一句話描述不屬于K均值聚類算法的不足()選項:A、K均值聚類是無監(jiān)督聚類B、需要事先確定聚類數(shù)目C、需要初始化聚類質(zhì)心D、算法迭代執(zhí)行正確答案:【K均值聚類是無監(jiān)督聚類】4、問題:下面對數(shù)據(jù)樣本方差解釋不正確的是()選項:A、方差刻畫了樣本數(shù)據(jù)的大小B、方差刻畫了隨機變量或一組數(shù)據(jù)離散程度C、方差(樣本方差)是每個樣本數(shù)據(jù)與全體樣本數(shù)據(jù)平均值之差的平方和的平均數(shù)D、方差描述了樣本數(shù)據(jù)在平均值附近的波動程度正確答案:【方差刻畫了樣本數(shù)據(jù)的大小】5、問題:協(xié)方差可以用來計算兩個變量之間的相關(guān)性,或者說計算兩維樣本數(shù)據(jù)中兩個維度之間的相關(guān)性?;谟嬎闼玫膮f(xié)方差值,可以來判斷樣本數(shù)據(jù)中兩維變量之間是否存在關(guān)聯(lián)關(guān)系。下面哪一個說法是不正確的()選項:A、當協(xié)方差值等于0時,則兩個變量線性正相關(guān)B、當協(xié)方差值大于0時,則兩個變量線性正相關(guān)C、當協(xié)方差值小于0時,則兩個變量線性負相關(guān)D、當協(xié)方差值等于0時,則兩個變量線性不相關(guān)正確答案:【當協(xié)方差值等于0時,則兩個變量線性正相關(guān)】6、問題:皮爾遜相關(guān)系數(shù)(PearsonCorrelationcoefficient)可將兩組變量之間的關(guān)聯(lián)度規(guī)整到一定的取值范圍內(nèi)。下面對皮爾遜相關(guān)系數(shù)描述不正確的是()選項:A、皮爾遜相關(guān)系數(shù)刻畫了兩組變量之間線性相關(guān)程度,如果其取值越大,則兩者在線性相關(guān)的意義下相關(guān)程度越大;如果其值越小,表示兩者在線性相關(guān)的意義下相關(guān)程度越小B、皮爾遜相關(guān)系數(shù)的值域是[-1,1]C、皮爾遜相關(guān)系數(shù)等于1的充要條件是該兩組變量具有線性相關(guān)關(guān)系D、皮爾遜相關(guān)系數(shù)是對稱的正確答案:【皮爾遜相關(guān)系數(shù)刻畫了兩組變量之間線性相關(guān)程度,如果其取值越大,則兩者在線性相關(guān)的意義下相關(guān)程度越大;如果其值越小,表示兩者在線性相關(guān)的意義下相關(guān)程度越小】7、問題:下面對相關(guān)性(correlation)和獨立性(independence)描述不正確的是()選項:A、“不相關(guān)”是一個比“獨立”要強的概念,即不相關(guān)一定相互獨立B、如果兩維變量線性不相關(guān),則皮爾遜相關(guān)系數(shù)等于0C、如果兩維變量彼此獨立,則皮爾遜相關(guān)系數(shù)等于0D、獨立指兩個變量彼此之間不相互影響正確答案:【“不相關(guān)”是一個比“獨立”要強的概念,即不相關(guān)一定相互獨立】8、問題:下面對主成分分析的描述不正確的是()選項:A、在主成分分析中,所得低維數(shù)據(jù)中每一維度之間具有極大相關(guān)度B、主成份分析是一種特征降維方法C、主成分分析可保證原始高維樣本數(shù)據(jù)被投影映射后,其方差保持最大D、在主成分分析中,將數(shù)據(jù)向方差最大方向進行投影,可使得數(shù)據(jù)所蘊含信息沒有丟失,以便在后續(xù)處理過程中各個數(shù)據(jù)“彰顯個性”正確答案:【在主成分分析中,所得低維數(shù)據(jù)中每一維度之間具有極大相關(guān)度】9、問題:假設(shè)原始數(shù)據(jù)個數(shù)為n,原始數(shù)據(jù)維數(shù)為d,降維后的維數(shù)為l,下面對主成分分析算法描述不正確的是()選項:A、主成分分析學(xué)習(xí)得到了l個d維大小的向量,這l個d維向量之間彼此相關(guān)B、主成分分析要學(xué)習(xí)一個映射矩陣,其大小是d×lC、每個原始數(shù)據(jù)的維數(shù)大小從d變成了lD、在主成分分析中,我們將帶約束的最優(yōu)化問題,通過拉格朗日乘子法將其轉(zhuǎn)化為無約束最優(yōu)化問題正確答案:【主成分分析學(xué)習(xí)得到了l個d維大小的向量,這l個d維向量之間彼此相關(guān)】10、問題:在主成分分析中,我們將帶約束的最優(yōu)化問題,通過拉格朗日乘子法將其轉(zhuǎn)化為無約束最優(yōu)化問題。下面對主成分分析中優(yōu)化的目標函數(shù)和約束條件描述正確的是()選項:A、保證映射投影(即降維后)所得結(jié)果方差最大以及投影方向正交(以去除冗余度)B、保證映射投影方向之間的方差最大以及投影方向正交(以去除冗余度)C、保證映射投影(即降維后)所得結(jié)果相關(guān)度最大以及投影后結(jié)果方差最大D、保證映射投影(即降維后)所得結(jié)果冗余度最小以及投影后結(jié)果方差最大正確答案:【保證映射投影(即降維后)所得結(jié)果方差最大以及投影方向正交(以去除冗余度)】11、問題:下面對特征人臉算法描述不正確的是()選項:A、特征人臉之間的相關(guān)度要盡可能大B、特征人臉方法是一種應(yīng)用主成分分析來實現(xiàn)人臉圖像降維的方法C、特征人臉方法是用一種稱為“特征人臉(eigenface)”的特征向量按照線性組合形式來表達每一張原始人臉圖像D、每一個特征人臉的維數(shù)與原始人臉圖像的維數(shù)一樣大正確答案:【特征人臉之間的相關(guān)度要盡可能大】第七周測試1、問題:下面對邏輯斯蒂回歸(logisticregression)描述不正確的是()選項:A、在邏輯斯蒂回歸中,輸入數(shù)據(jù)特征加權(quán)累加值在接近?∞或+∞附近時,模型輸出的概率值變化很大B、邏輯斯蒂回歸中所使用Sigmoid函數(shù)的輸出形式是概率輸出C、在邏輯斯蒂回歸中,能夠?qū)崿F(xiàn)數(shù)據(jù)特征加權(quán)累加D、邏輯斯蒂回歸是一種非線性回歸模型正確答案:【在邏輯斯蒂回歸中,輸入數(shù)據(jù)特征加權(quán)累加值在接近?∞或+∞附近時,模型輸出的概率值變化很大】2、問題:邏輯斯蒂回歸模型(logisticregression)屬于()選項:A、監(jiān)督學(xué)習(xí)B、無監(jiān)督學(xué)習(xí)C、半監(jiān)督學(xué)習(xí)D、以上都不是正確答案:【監(jiān)督學(xué)習(xí)】3、問題:潛在語義分析屬于()選項:A、無監(jiān)督學(xué)習(xí)B、監(jiān)督學(xué)習(xí)C、半監(jiān)督學(xué)習(xí)D、以上都不是正確答案:【無監(jiān)督學(xué)習(xí)】4、問題:線性區(qū)別分析屬于()選項:A、監(jiān)督學(xué)習(xí)B、無監(jiān)督學(xué)習(xí)C、半監(jiān)督學(xué)習(xí)D、以上都不是正確答案:【監(jiān)督學(xué)習(xí)】5、問題:邏輯斯蒂回歸函數(shù)也可被稱為()選項:A、對數(shù)幾率回歸(log-oddsregression)B、交叉熵回歸模型C、最大似然估計回歸模型D、最大后驗估計回歸模型正確答案:【對數(shù)幾率回歸(log-oddsregression)】6、問題:在隱性語義分析中,給定M個單詞和N個文檔所構(gòu)成的單詞-文檔矩陣(term-document)矩陣,對其進行分解,將單詞或文檔映射到一個R維的隱性空間。下面描述不正確的是()選項:A、這一映射過程中需要利用文檔的類別信息B、單詞和文檔映射到R維隱性空間后,單詞和文檔具有相同的維度C、通過矩陣分解可重建原始單詞-文檔矩陣,所得到的重建矩陣結(jié)果比原始單詞-文檔矩陣更好捕獲了單詞-單詞、單詞-文檔、文檔-文檔之間的隱性關(guān)系D、隱性空間維度的大小由分解過程中所得對角矩陣中對角線上不為零的系數(shù)個數(shù)所決定正確答案:【這一映射過程中需要利用文檔的類別信息】7、問題:線性區(qū)別分析(lineardiscriminantanalysis,LDA)在進行數(shù)據(jù)降維時,原始高維數(shù)據(jù)被映射到低維空間中后需要達到的優(yōu)化的目標是()選項:A、既要保證同一類別樣本盡可能靠近,也要保證不同類別樣本盡可能彼此遠離B、只要保證同一類別樣本盡可能靠近C、只要保證不同類別樣本盡可能彼此遠離D、既要保證不同類別樣本盡可能靠近,也要保證同一類別樣本盡可能彼此遠離正確答案:【既要保證同一類別樣本盡可能靠近,也要保證不同類別樣本盡可能彼此遠離】8、問題:LDA(線性區(qū)別分析)與PCA(主成分分析)均是降維的方法,下面描述不正確的是()選項:A、PCA和LDA均是基于監(jiān)督學(xué)習(xí)的降維方法B、PCA對高維數(shù)據(jù)降維后的維數(shù)是與原始數(shù)據(jù)特征維度相關(guān)(與數(shù)據(jù)類別標簽無關(guān))C、LDA降維后所得到維度是與數(shù)據(jù)樣本的類別個數(shù)K有關(guān)(與數(shù)據(jù)本身維度無關(guān))D、假設(shè)原始數(shù)據(jù)一共有K個類別,那么LDA所得數(shù)據(jù)的降維維度小于或等于K?1正確答案:【PCA和LDA均是基于監(jiān)督學(xué)習(xí)的降維方法】9、問題:邏輯斯蒂回歸和線性區(qū)別分析均可完成分類任務(wù),下面描述正確的是()選項:A、邏輯斯蒂回歸可直接在數(shù)據(jù)原始空間進行分類,線性區(qū)別分析需要在降維所得空間中進行分類B、邏輯斯蒂回歸和線性區(qū)別分析都是直接在數(shù)據(jù)原始空間進行分類C、邏輯斯蒂回歸在降維所得空間中進行分類,線性區(qū)別分析在數(shù)據(jù)原始空間進行分類D、以上都不正確正確答案:【邏輯斯蒂回歸可直接在數(shù)據(jù)原始空間進行分類,線性區(qū)別分析需要在降維所得空間中進行分類】10、問題:下面對邏輯斯蒂回歸(logisticregression)和多項邏輯斯蒂回歸模型(multi-nominallogisticmodel)描述不正確的是()選項:A、邏輯斯帝回歸是監(jiān)督學(xué)習(xí),多項邏輯斯蒂回歸模型是非監(jiān)督學(xué)習(xí)B、兩者都是監(jiān)督學(xué)習(xí)的方法C、多項邏輯斯蒂回歸模型也被稱為softmax函數(shù)D、兩者都可被用來完成多類分類任務(wù)正確答案:【邏輯斯帝回歸是監(jiān)督學(xué)習(xí),多項邏輯斯蒂回歸模型是非監(jiān)督學(xué)習(xí)】第八周測試1、問題:在神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)中,每個神經(jīng)元會完成若干功能,下面哪個功能不是神經(jīng)元所能夠完成的功能()選項:A、向前序相鄰神經(jīng)元反饋加權(quán)累加信息B、對前序相鄰神經(jīng)元所傳遞信息進行加權(quán)累加C、對加權(quán)累加信息進行非線性變化(通過激活函數(shù))D、將加權(quán)累加信息向后續(xù)相鄰神經(jīng)元傳遞正確答案:【向前序相鄰神經(jīng)元反饋加權(quán)累加信息】2、問題:下面對前饋神經(jīng)網(wǎng)絡(luò)描述不正確的是()選項:A、同一層內(nèi)神經(jīng)元之間存在全連接B、各個神經(jīng)元接受前一級神經(jīng)元的輸入,并輸出到下一級C、層與層之間通過“全連接”進行連接,即兩個相鄰層之間神經(jīng)元完全成對連接D、同一層內(nèi)的神經(jīng)元相互不連接正確答案:【同一層內(nèi)神經(jīng)元之間存在全連接】3、問題:下面對感知機網(wǎng)絡(luò)(PerceptronNetworks)描述不正確的是()選項:A、感知機網(wǎng)絡(luò)具有一層隱藏層B、感知機網(wǎng)絡(luò)是一種特殊的前饋神經(jīng)網(wǎng)絡(luò)C、感知機網(wǎng)絡(luò)沒有隱藏層D、感知機網(wǎng)絡(luò)不能擬合復(fù)雜數(shù)據(jù)正確答案:【感知機網(wǎng)絡(luò)具有一層隱藏層】4、問題:下面對梯度下降方法描述不正確的是()選項:A、梯度方向是函數(shù)值下降最快方向B、梯度下降算法是一種使得損失函數(shù)最小化的方法C、梯度反方向是函數(shù)值下降最快方向D、梯度下降算法用來優(yōu)化深度學(xué)習(xí)模型的參數(shù)正確答案:【梯度方向是函數(shù)值下降最快方向】5、問題:下面對誤差反向傳播(errorbackpropagation,BP)描述不正確的是()選項:A、在BP算法中,每個神經(jīng)元單元可包含不可偏導(dǎo)的映射函數(shù)B、BP算法是一種將輸出層誤差反向傳播給隱藏層進行參數(shù)更新的方法C、BP算法將誤差從后向前傳遞,獲得各層單元所產(chǎn)生誤差,進而依據(jù)這個誤差來讓各層單元修正各單元參數(shù)D、對前饋神經(jīng)網(wǎng)絡(luò)而言,BP算法可調(diào)整相鄰層神經(jīng)元之間的連接權(quán)重大小正確答案:【在BP算法中,每個神經(jīng)元單元可包含不可偏導(dǎo)的映射函數(shù)】6、問題:我們可以將深度學(xué)習(xí)看成一種端到端的學(xué)習(xí)方法,這里的端到端指的是()選項:A、輸入端-輸出端B、輸入端-中間端C、輸出端-中間端D、中間端-中間端正確答案:【輸入端-輸出端】7、問題:在前饋神經(jīng)網(wǎng)絡(luò)中,誤差后向傳播(BP算法)將誤差從輸出端向輸入端進行傳輸?shù)倪^程中,算法會調(diào)整前饋神經(jīng)網(wǎng)絡(luò)的什么參數(shù)()選項:A、相鄰層神經(jīng)元和神經(jīng)元之間的連接權(quán)重B、輸入數(shù)據(jù)大小C、神經(jīng)元和神經(jīng)元之間連接有無D、同一層神經(jīng)元之間的連接權(quán)重正確答案:【相鄰層神經(jīng)元和神經(jīng)元之間的連接權(quán)重】8、問題:前饋神經(jīng)網(wǎng)絡(luò)通過誤差后向傳播(BP算法)進行參數(shù)學(xué)習(xí),這是一種()機器學(xué)習(xí)手段選項:A、監(jiān)督學(xué)習(xí)B、無監(jiān)督學(xué)習(xí)C、半監(jiān)督學(xué)習(xí)D、無監(jiān)督學(xué)習(xí)和監(jiān)督學(xué)習(xí)的結(jié)合正確答案:【監(jiān)督學(xué)習(xí)】9、問題:下面對前饋神經(jīng)網(wǎng)絡(luò)這種深度學(xué)習(xí)方法描述不正確的是()選項:A、隱藏層數(shù)目大小對學(xué)習(xí)性能影響不大B、是一種端到端學(xué)習(xí)的方法C、是一種監(jiān)督學(xué)習(xí)的方法D、實現(xiàn)了非線性映射正確答案:【隱藏層數(shù)目大小對學(xué)習(xí)性能影響不大】10、問題:下面對淺層學(xué)習(xí)和深度學(xué)習(xí)描述不正確的是()選項:A、淺層學(xué)習(xí)僅能實現(xiàn)線性映射、深度學(xué)習(xí)可以實現(xiàn)非線性映射B、K-means聚類是一種淺層學(xué)習(xí)方法C、線性回歸分析是一種淺層學(xué)習(xí)方法D、包含了若干隱藏層的前饋神經(jīng)網(wǎng)絡(luò)是一種深度學(xué)習(xí)方法正確答案:【淺層學(xué)習(xí)僅能實現(xiàn)線性映射、深度學(xué)習(xí)可以實現(xiàn)非線性映射】第九周測試1、問題:卷積操作是卷積神經(jīng)網(wǎng)絡(luò)所具備的一個重要功能,對一幅圖像進行高斯卷積操作的作用是()選項:A、對圖像進行平滑(模糊化)B、對圖像進行增強C、對圖像進行裁剪D、對圖像進行分類正確答案:【對圖像進行平滑(模糊化)】2、問題:對完成特定任務(wù)的卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練采用的是監(jiān)督學(xué)習(xí)方法。在這個過程中,通過誤差后向傳播來優(yōu)化調(diào)整網(wǎng)絡(luò)參數(shù),請問下面哪個參數(shù)不是通過誤差后向傳播來優(yōu)化的()選項:A、模型的隱藏層數(shù)目B、卷積濾波矩陣中的參數(shù)C、全連接層的鏈接權(quán)重D、激活函數(shù)中的參數(shù)正確答案:【模型的隱藏層數(shù)目】3、問題:下面哪個作用是池化(pooling)層所完成的()選項:A、下采樣B、圖像增強C、圖像裁剪D、上采樣正確答案:【下采樣】4、問題:假設(shè)我們需要訓(xùn)練一個卷積神經(jīng)網(wǎng)絡(luò),來完成500種概念的圖像分類。該卷積神經(jīng)網(wǎng)絡(luò)最后一層是分類層,則最后一層輸出向量的維數(shù)大小可能是()選項:A、500B、1C、300D、100正確答案:【500】5、問題:下面對Word2Vec描述不正確的是()選項:A、詞向量是一種one-hot的單詞表達形式B、可以根據(jù)某個單詞的上下文單詞來預(yù)測該單詞,從而訓(xùn)練得到詞向量模型C、可以利用某個單詞來分別預(yù)測該單詞的上下文單詞,從而訓(xùn)練得到詞向量模型D、詞向量是一種分布式的單詞表達形式正確答案:【詞向量是一種one-hot的單詞表達形式】6、問題:前饋神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)的模型學(xué)習(xí)均是通過誤差后向傳播來優(yōu)化模型參數(shù),因此是一種監(jiān)督學(xué)習(xí)方法。選項:A、正確B、錯誤正確答案:【正確】7、問題:一般而言,在深度學(xué)習(xí)模型中,層數(shù)越多,其完成的非線性映射就越復(fù)雜,因此模型就具有更強的學(xué)習(xí)能力。選項:A、正確B、錯誤正確答案:【正確】8、問題:與one-hot的單詞表達不同,在詞向量模型中,單詞和單詞之間的共現(xiàn)關(guān)系被忽略了。選項:A、正確B、錯誤正確答案:【錯誤】9、問題:卷積神經(jīng)網(wǎng)絡(luò)一般包括卷積層、池化層、全連接層,一般激活函數(shù)在卷積層后進行使用。選項:A、正確B、錯誤正確答案:【正確】10、問題:在使用卷積神經(jīng)網(wǎng)絡(luò)對圖像分類中,一般將最后一層全連接層(即與輸出層相連的全連接層)的輸出作為每幅圖像的特征表達。選項:A、正確B、錯誤正確答案:【正確】第十周測試1、問題:下面對強化學(xué)習(xí)、監(jiān)督學(xué)習(xí)和深度卷積神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)的描述正確的是()選項:A、評估學(xué)習(xí)方式、有標注信息學(xué)習(xí)方式、端到端學(xué)習(xí)方式B、有標注信息學(xué)習(xí)方式、端到端學(xué)習(xí)方式、端到端學(xué)習(xí)方式C、評估學(xué)習(xí)方式、端到端學(xué)習(xí)方式、端到端學(xué)習(xí)方式D、無標注學(xué)習(xí)、有標注信息學(xué)習(xí)方式、端到端學(xué)習(xí)方式正確答案:【評估學(xué)習(xí)方式、有標注信息學(xué)習(xí)方式、端到端學(xué)習(xí)方式】2、問題:在強化學(xué)習(xí)中,通過哪兩個步驟的迭代,來學(xué)習(xí)得到最佳策略()選項:A、策略優(yōu)化與策略評估B、動態(tài)規(guī)劃與Q-LearningC、價值函數(shù)計算與動作-價值函數(shù)計算D、Q-learning與貪心策略優(yōu)化正確答案:【策略優(yōu)化與策略評估】3、問題:在強化學(xué)習(xí)中,哪個機制的引入使得強化學(xué)習(xí)具備了在利用與探索中尋求平衡的能力()選項:A、貪心策略B、蒙特卡洛采樣C、動態(tài)規(guī)劃D、Bellman方程正確答案:【貪心策略】4、問題:深度強化學(xué)習(xí)是深度學(xué)習(xí)與強化學(xué)習(xí)的結(jié)合。在深度強化學(xué)習(xí)中,神經(jīng)網(wǎng)絡(luò)被用來進行哪個函數(shù)的學(xué)習(xí)?選項:A、q函數(shù)B、貪心策略函數(shù)C、蒙特卡洛采樣函數(shù)D、Bellman方程正確答案:【q函數(shù)】5、問題:與馬爾可夫獎勵過程相比,馬爾可夫決策過程引入了哪一個新的元素()?選項:A、動作B、反饋C、終止狀態(tài)D、概率轉(zhuǎn)移矩陣正確答案:【動作】6、問題:在本課程所講述的范圍內(nèi),“在狀態(tài)s,選擇一個動作,使得狀態(tài)s得到最大的反饋期望”,這句話描述了狀態(tài)s的()選項:A、策略學(xué)習(xí)與優(yōu)化B、價值函數(shù)C、動作-價值函數(shù)D、采樣函數(shù)正確答案:【策略學(xué)習(xí)與優(yōu)化】7、問題:在本課程內(nèi)容范圍內(nèi),“在狀態(tài)s,按照某個策略行動后在未來所獲得反饋值的期望”,這句話描述了狀態(tài)s的()選項:A、價值函數(shù)B、策略優(yōu)化C、動作-價值函數(shù)D、采樣函數(shù)正確答案:【價值函數(shù)】8、問題:在本課程內(nèi)容范圍內(nèi),“在狀態(tài)s,按照某個策略采取動作a后在未來所獲得反饋值的期望”,這句話描述了狀態(tài)s的()選項:A、動作-價值函數(shù)B、策略優(yōu)化C、價值函數(shù)D、采樣函數(shù)正確答案:【動作-價值函數(shù)】9、問題:下面哪句話正確描述了馬爾科夫鏈中定義的馬爾可夫性()選項:A、t+1時刻狀態(tài)取決于t時刻狀態(tài)B、t-1時刻狀態(tài)取決于t+1時刻狀態(tài)C、t+2時刻狀態(tài)取決于t時刻狀態(tài)D、t+1時刻狀態(tài)和t時刻狀態(tài)相互獨立正確答案:【t+1時刻狀態(tài)取決于t時刻狀態(tài)】10、問題:下面對強化學(xué)習(xí)、有監(jiān)督學(xué)習(xí)和無監(jiān)督學(xué)習(xí)描述正確的是()選項:A、都是人工智能的學(xué)習(xí)算法B、都是深度學(xué)習(xí)的學(xué)習(xí)算法C、都需要標注數(shù)據(jù)D、都不需要標注信息正確答案:【都是人工智能的學(xué)習(xí)算法】11、問題:下面哪一種方法不是通過迭代計算貝爾曼方程來進行策略評估()選項:A、深度學(xué)習(xí)B、動態(tài)規(guī)劃C、蒙特卡洛采樣D、時序差分(TemporalDifference)正確答案:【深度學(xué)習(xí)】第十一周測試1、問題:標志著現(xiàn)代博弈理論的初步形成的事件是()選項:A、1944年馮·諾伊曼與奧斯卡·摩根斯特恩合著《博弈論與經(jīng)濟行為》的出版B、納什均衡思想的提出C、囚徒困境思想的提出D、馮·諾伊曼計算機的實現(xiàn)正確答案:【1944年馮·諾伊曼與奧斯卡·摩根斯特恩合著《博弈論與經(jīng)濟行為》的出版】2、問題:下面對博弈研究分類不正確的是()選項:A、囚徒困境與納什均衡B、合作博弈與非合作博弈C、靜態(tài)博弈與動態(tài)博弈D、完全信息博弈與不完全信息博弈正確答案:【囚徒困境與納什均衡】3、問題:囚徒困境是一種()選項:A、納什均衡B、最優(yōu)解C、合作博弈D、動態(tài)博弈正確答案:【納什均衡】4、問題:下面對納什均衡描述正確的是()選項:A、參與者所作出的這樣一種策略組合,在該策略組合上,任何參與者單獨改變策略都不會得到好處。B、在一個策略組合上,當所有其他人都改變策略時,也無法破壞先前的博弈平衡,則該策略組合就是一個納什均衡。C、參與者所作出的這樣一種策略組合,在該策略組合上,有且只有1個參與者改變策略后,其不會得到好處。D、參與者所作出的這樣一種策略組合,在該策略組合上,有且只有1個參與者改變策略后,其收益會增加。正確答案:【參與者所作出的這樣一種策略組合,在該策略組合上,任何參與者單獨改變策略都不會得到好處。】5、問題:下面對混合策略納什均衡描述正確的是()選項:A、博弈過程中,博弈方通過概率形式隨機從可選策略中選擇一個策略而達到的納什均衡被稱為混合策略納什均衡。B、博弈過程中,博弈方通過非概率形式隨機從可選策略中選擇一個策略而達到的納什均衡被稱為混合策略納什均衡。C、博弈過程中,博弈方以概率形式隨機從可選收益中選擇一個收益,而達到的納什均衡被稱為混合策略納什均衡。D、博弈過程中,博弈方以非概率形式隨機從可選收益中選擇一個收益,而達到的納什均衡被稱為混合策略納什均衡。正確答案:【博弈過程中,博弈方通過概率形式隨機從可選策略中選擇一個策略而達到的納什均衡被稱為混合策略納什均衡。】6、問題:ε-納什均衡與納什均衡的關(guān)系是()選項:A、納什均衡是ε-納什均衡B、ε-納什均衡是納什均衡C、納什均衡不是ε-納什均衡D、納什均衡和ε-納什均衡均是最優(yōu)解正確答案:【納什均衡是ε-納什均衡】7、問題:在遺憾最小化算法中,玩家i按照如下方法來計算其在每一輪產(chǎn)生的悔恨值()選項:A、其他玩家策略不變,只改變玩家i的策略后,所產(chǎn)生的收益之差。B、所有玩家策略均改變,所產(chǎn)生的收益之差。C、至少改變1個以上玩家的策略,所產(chǎn)生的收益之差。D、每個玩家策略不變,只改變收益函數(shù),所產(chǎn)生的收益之差。正確答案:【其他玩家策略不變,只改變玩家i的策略后,所產(chǎn)生的收益之差?!?、問題:下面對生成對抗網(wǎng)絡(luò)(GenerativeAdversarialNetwork)描述不正確的是()選項:A、GAN是一種區(qū)別學(xué)習(xí)模型。B、GAN是一種生成學(xué)習(xí)模型。C、GAN包含生成網(wǎng)絡(luò)和判別網(wǎng)絡(luò)兩個網(wǎng)絡(luò)。D、生成網(wǎng)絡(luò)和判別網(wǎng)絡(luò)分別依次迭代優(yōu)化。正確答案:【GAN是一種區(qū)別學(xué)習(xí)模型?!?、問題:在生成對抗網(wǎng)絡(luò)(GenerativeAdversarialNetwork)中,生成網(wǎng)絡(luò)和判別網(wǎng)絡(luò)的功能分別是()選項:A、學(xué)習(xí)真實數(shù)據(jù)的分布/區(qū)別真實數(shù)據(jù)與合成的虛假數(shù)據(jù)B、學(xué)習(xí)真實數(shù)據(jù)的標簽分布/區(qū)別真實數(shù)據(jù)與合成的虛假數(shù)據(jù)C、區(qū)別真實數(shù)據(jù)與合成的虛假數(shù)據(jù)/學(xué)習(xí)真實數(shù)據(jù)的分布D、區(qū)別真實數(shù)據(jù)與合成的虛假數(shù)據(jù)/學(xué)習(xí)真實數(shù)據(jù)的標簽分布正確答案:【學(xué)習(xí)真實數(shù)據(jù)的分布/區(qū)別真實數(shù)據(jù)與合成的虛假數(shù)據(jù)】10、問題:最佳反應(yīng)策略和納什均衡之間的關(guān)系是()選項:A、如果每個玩家的策略相對于其他玩家的策略而言都是最佳反應(yīng)策略,那么策略組就是一個納什均衡策略。B、如果每個玩家的策略相對于其他玩家的策略中至少有一個是最佳反應(yīng)策略,那么策略組就是一個納什均衡策略。C、每個玩家的策略相對于其他玩家的策略而言不少于一個是最佳反應(yīng)策略,那么策略組就是一個納什均衡策略。D、至少一個玩家的策略相對于其他玩家的策略而言都是最佳反應(yīng)策略,那么策略組就是一個納什均衡策略。正確答案:【如果每個玩家的策略相對于其他玩家的策略而言都是最佳反應(yīng)策略,那么策略組就是一個納什均衡策略。】人工智能模型與算法1、問題:標志著人工智能走上人類歷史舞臺的事件是()選項:A、1955年8月,JohnMcCarthy、MarvinLeeMinsky、ClaudeShannon和NathanielRochester提交了一份題為AProposalfortheDartmouthSummerResearchProjectonArtificialIntelligence(關(guān)于舉辦達特茅斯人工智能夏季研討會的提議)的報告中。B、1937年,圖靈發(fā)表了《論數(shù)字計算在決斷難題中的應(yīng)用》論文,提出了圖靈機模型。C、圖靈測試模型的提出D、納什均衡思想的提出正確答案:【1955年8月,JohnMcCarthy、MarvinLeeMinsky、ClaudeShannon和NathanielRochester提交了一份題為AProposalfortheDartmouthSummerResearchProjectonArtificialIntelligence(關(guān)于舉辦達特茅斯人工智能夏季研討會的提議)的報告中?!?、問題:下面兩個單詞短語中,前者和后者之間存在真子集關(guān)系的是()選項:A、監(jiān)督學(xué)習(xí)、無監(jiān)督學(xué)習(xí)B、監(jiān)督學(xué)習(xí)、機器學(xué)習(xí)C、人工智能、機器學(xué)習(xí)D、機器學(xué)習(xí)、深度學(xué)習(xí)正確答案:【監(jiān)督學(xué)習(xí)、機器學(xué)習(xí)】3、問題:如果一個表示蘊含關(guān)系的符合命題是真命題(即a-b是真命題),則下面哪個命題一定是真命題()選項:A、該命題的逆否命題B、命題aC、命題bD、該命題的反命題(b-a)正確答案:【該命題的逆否命題】4、問題:在本課程所介紹的貪婪最佳優(yōu)先搜索和A*搜索中,都需要用到的輔助信息是()選項:A、任意一個城市與目標城市之間的直線距離B、任意一個城市與始點城市之間的直線距離C、搜索空間中城市的個數(shù)D、搜索空間中城市的天氣狀況正確答案:【任意一個城市與目標城市之間的直線距離】5、問題:下面對Alpha-Beta剪枝搜索描述不正確的是()選項:A、與minimax搜索算法相比,可減少所搜索的搜索樹節(jié)點數(shù)B、是一種對抗搜索C、搜索樹中節(jié)點的位置先后次序不會影響搜索效率D、被剪枝的節(jié)點不會影響搜索結(jié)果正確答案:【搜索樹中節(jié)點的位置先后次序不會影響搜索效率】6、問題:下面對蒙特卡洛樹搜索描述不正確的是()選項:A、是一種基于采樣的搜索方法B、是將上限置信區(qū)間算法(UCB)應(yīng)用于游戲樹的搜索方法C、其包含了選舉、擴展、模擬和反向傳播四個步驟D、是一種窮舉式枚舉的搜索方法正確答案:【是一種窮舉式枚舉的搜索方法】7、問題:下面對期望風(fēng)險和經(jīng)驗風(fēng)險描述正確的是()選項:A、期望風(fēng)險指模型關(guān)于聯(lián)合分布期望損失,經(jīng)驗風(fēng)險指模型關(guān)于訓(xùn)練樣本集平均損失B、在有監(jiān)督學(xué)習(xí)的訓(xùn)練過程中,經(jīng)驗風(fēng)險小和期望風(fēng)險大被稱為欠學(xué)習(xí)C、在有監(jiān)督學(xué)習(xí)的訓(xùn)練過程中,經(jīng)驗風(fēng)險大和期望風(fēng)險大被稱為過學(xué)習(xí)D、經(jīng)驗風(fēng)險指模型關(guān)于聯(lián)合分布期望損失,期望風(fēng)險指模型關(guān)于訓(xùn)練樣本集平均損失正確答案:【期望風(fēng)險指模型關(guān)于聯(lián)

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論