人工智能智慧樹知到答案章節(jié)測試2023年復(fù)旦大學(xué)_第1頁
人工智能智慧樹知到答案章節(jié)測試2023年復(fù)旦大學(xué)_第2頁
人工智能智慧樹知到答案章節(jié)測試2023年復(fù)旦大學(xué)_第3頁
人工智能智慧樹知到答案章節(jié)測試2023年復(fù)旦大學(xué)_第4頁
免費(fèi)預(yù)覽已結(jié)束,剩余6頁可下載查看

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

緒論單元測試針對智能體的思考是否合理,所引入的指標(biāo)叫做()

A:智慧

B:理性

C:嚴(yán)密

D:嚴(yán)謹(jǐn)

答案:B第一章測試在下圖八數(shù)碼問題中,需要通過移動將雜亂的8個(gè)方塊按照右側(cè)的順序進(jìn)行排列,那么該問題的狀態(tài)空間的大小是()?

A:9!

B:9*9

C:8

D:9

答案:A以下無信息搜索算法中,同時(shí)具有完備性和最優(yōu)性的有()。

A:深度優(yōu)先搜索

B:一致代價(jià)搜索

C:廣度優(yōu)先搜索

D:迭代加深搜索

答案:BCD對于有限狀態(tài)圖上的搜索問題,以下說法正確的有()。

A:深度優(yōu)先圖搜索(BFS)可以保證找到解(如果存在至少一解)

B:一致代價(jià)搜索(UCS)不一定總能找到最優(yōu)解

C:存在深度優(yōu)先樹搜索有解而廣度優(yōu)先樹搜索無解的案例

D:存在廣度優(yōu)先樹搜索有解而深度優(yōu)先樹搜索無解的案例

答案:ABD對于一個(gè)邊損耗非負(fù)的有限圖,采用廣度優(yōu)先樹搜索可以得到最優(yōu)解,并且對每條邊加上一個(gè)相同的非負(fù)損耗c>0之后,最優(yōu)路徑保持不變。()

A:錯(cuò)

B:對

答案:B在下圖搜索問題中,S為起始節(jié)點(diǎn),G1、G2、G3均為目標(biāo)節(jié)點(diǎn),則采用一致代價(jià)找到的解是()

A:G3

B:G1

C:G2

D:均不可能

答案:C第二章測試假如一個(gè)搜索問題(有限狀態(tài))至少有一個(gè)解,則當(dāng)A*圖搜索算法配備任意可采納的啟發(fā)式函數(shù)時(shí),一定能保證找到一解。()

A:對

B:錯(cuò)

答案:A當(dāng)路徑損耗非負(fù)時(shí),一致代價(jià)搜索是A*算法的一種特例,其啟發(fā)式函數(shù)既是可采納的,又是一致的。()

A:對

B:錯(cuò)

答案:A在下圖所示的圖搜索問題中,哪些節(jié)點(diǎn)的啟發(fā)式函數(shù)值是不可采納的___

答案:在如圖所示的八數(shù)碼問題中,如果A格與B格相鄰且B為空,則A可以移動至B。以下可以作為八數(shù)碼問題的一致啟發(fā)式函數(shù)的有()。

A:不在目標(biāo)位置的數(shù)碼總數(shù)

B:各數(shù)碼到目標(biāo)位置的曼哈頓距離總和

C:數(shù)碼1、2、3、4移動到正確位置的步數(shù)

D:都不正確

答案:ABC在上述八數(shù)碼問題中,有兩種啟發(fā)式函數(shù),其中h1(n)為不在目標(biāo)位置的數(shù)碼總數(shù),h2(n)為各數(shù)碼到目標(biāo)位置的曼哈頓距離總和,則h3(n)=max(h1(n),h2(n)),具有以下什么性質(zhì)()。

A:其余兩項(xiàng)都不滿足

B:可采納的

C:其余兩項(xiàng)都滿足

D:一致的

答案:C第三章測試對抗博弈是一種零和游戲。()

A:對

B:錯(cuò)

答案:A極大極小值搜索算法相比于深度優(yōu)先,更接近廣度優(yōu)先搜索算法。()

A:對

B:錯(cuò)

答案:Balpha-beta剪枝中,兒子節(jié)點(diǎn)的擴(kuò)展順序遵循效用值遞減對MIN節(jié)點(diǎn)的值計(jì)算更高效。()

A:對

B:錯(cuò)

答案:B在期望最大搜索中,可能涉及什么類型的節(jié)點(diǎn)?()。

A:MAX節(jié)點(diǎn)。

B:隨機(jī)節(jié)點(diǎn)。

C:兩種都無。

D:兩種都有。

答案:Dalpha-beta剪枝中,哪些說法是正確的()。

A:對于MAX節(jié)點(diǎn)來說,當(dāng)前效用值大于beta時(shí)可以進(jìn)行剪枝。

B:alpha在MIN節(jié)點(diǎn)上更新。

C:中間節(jié)點(diǎn)的極大極小值在執(zhí)行完剪枝算法后可能是錯(cuò)誤的。

D:alpha在MAX節(jié)點(diǎn)上更新。

答案:ACD第四章測試約束滿足問題關(guān)注動作路徑。()

A:錯(cuò)

B:對

答案:A約束滿足問題的解是滿足所有約束的一組變量賦值。()

A:對

B:錯(cuò)

答案:A任何N元約束滿足問題都可以轉(zhuǎn)化為二元約束滿足問題。()

A:錯(cuò)

B:對

答案:B關(guān)于約束滿足問題,說法錯(cuò)誤的是()。

A:交通排班可以構(gòu)建成一個(gè)約束滿足問題。

B:對于任何類型的變量都可以通過枚舉的方式展現(xiàn)所有變量賦值情況。

C:一元約束僅涉及一個(gè)變量。

D:變量賦值往往伴隨與傾向性相關(guān)的評價(jià)。

答案:B關(guān)于約束滿足問題的回溯搜索算法,以下說法正確的是()。

A:應(yīng)選擇剩余賦值選擇最少的變量進(jìn)行賦值。

B:賦值時(shí),應(yīng)選擇最少限制的取值。

C:賦值時(shí),應(yīng)選擇最多限制的取值。

D:應(yīng)選擇剩余賦值選擇最多的變量進(jìn)行賦值。

答案:AB第五章測試假設(shè)馬爾可夫決策問題(MDP)的狀態(tài)是有限的,則對于,如果我們只改變獎(jiǎng)勵(lì)函數(shù)R,最優(yōu)策略會保持不變。()

A:錯(cuò)

B:對

答案:A假設(shè)馬爾可夫決策問題(MDP)的狀態(tài)是有限的,若衰減因子滿足,則值迭代一定會收斂。()

A:對

B:錯(cuò)

答案:A假設(shè)馬爾可夫決策問題(MDP)的狀態(tài)是有限的,通過值迭代找到的策略優(yōu)于通過策略迭代找到的策略。()

A:對

B:錯(cuò)

答案:B如果兩個(gè)MDP之間的唯一差異是衰減因子的值,那么它們一定擁有相同的最優(yōu)策略。()

A:對

B:錯(cuò)

答案:B當(dāng)在一個(gè)MDP中只執(zhí)行有限數(shù)量的步驟時(shí),最優(yōu)策略是平穩(wěn)的。平穩(wěn)的策略是指在給定狀態(tài)下采取相同操作的策略,與智能體處于該狀態(tài)的時(shí)間無關(guān)。()

A:對

B:錯(cuò)

答案:B寫出貝爾曼方程的數(shù)學(xué)表達(dá)式。

答案:處于獎(jiǎng)勵(lì)水平的吃豆人游戲。吃豆人正處在一個(gè)5*1的格子世界中,如下圖所示:這些單元格從左到右分別編號為1,2,3,4,5。在格子1-4中,吃豆人可以采取的動作是向右移動(R)或飛出(F)獎(jiǎng)勵(lì)水平。其中,執(zhí)行動作R會確定性地移動到右邊的格子中并吃掉其中的豆子,而執(zhí)行動作F會確定性地移動到終止?fàn)顟B(tài)并結(jié)束游戲。在格子5中,吃豆人只能執(zhí)行動作F。吃豆人吃一個(gè)豆子獎(jiǎng)勵(lì)為10,飛出獎(jiǎng)勵(lì)水平的獎(jiǎng)勵(lì)為20。吃豆人的初始狀態(tài)為最左邊的格子1。我們把它看成一個(gè)MDP,其中的狀態(tài)是吃豆人所在的格子。衰減因子為??紤]以下三種策略:(1)假設(shè)衰減因子,計(jì)算:(2)現(xiàn)考慮可取任意值。a)是否存在一個(gè)使得嚴(yán)格優(yōu)于和?若存在,計(jì)算的值;若不存在則寫None。b)是否存在一個(gè)使得嚴(yán)格優(yōu)于和?若存在,計(jì)算的值;若不存在則寫None。c)是否存在一個(gè)使得嚴(yán)格優(yōu)于和?若存在,計(jì)算的值;若不存在則寫None。

答案:第六章測試時(shí)序差分算法是一種在線學(xué)習(xí)的方法。()

A:對

B:錯(cuò)

答案:AF-learning可以看作Q-learning的一種健忘選擇,,也即Q-learning中的學(xué)習(xí)率。則F-learning在以下那種情況下收斂于固定的值:()

A:從不

B:具有確定性的狀態(tài)轉(zhuǎn)移時(shí)

C:具有隨機(jī)性的狀態(tài)轉(zhuǎn)移時(shí)

D:相應(yīng)的Q-learning收斂時(shí)F-learning也會收斂

答案:BF-learning可以看作Q-learning的一種健忘選擇,,也即Q-learning中的學(xué)習(xí)率。則F-learning在以下那種情況下收斂于最優(yōu)q值:()

A:相應(yīng)的Q-learning收斂時(shí)F-learning也會收斂

B:具有隨機(jī)性的狀態(tài)轉(zhuǎn)移時(shí)

C:具有確定性的狀態(tài)轉(zhuǎn)移時(shí)

D:從不

答案:CF-learning可以看作Q-learning的一種健忘選擇,,也即Q-learning中的學(xué)習(xí)率。則F-learning在以下那種情況下收斂于隨機(jī)策略的q值:()

A:從不

B:具有隨機(jī)性的狀態(tài)轉(zhuǎn)移時(shí)

C:相應(yīng)的Q-learning收斂時(shí)F-learning也會收斂

D:具有確定性的狀態(tài)轉(zhuǎn)移時(shí)

答案:A寫出Q-learning中Q(s,a)的更新公式。

答案:智能體根據(jù)五元組更新值或Q函數(shù)。智能體每次有0.5的概率按照策略(不必要是最優(yōu)策略)的動作執(zhí)行,0.5的概率隨機(jī)選擇一個(gè)動作。假設(shè)在這兩種情況下,更新都被無限頻繁地應(yīng)用,狀態(tài)-動作對都被無限頻繁地訪問,衰減因子,學(xué)習(xí)率均以適當(dāng)速率下降。(1)Q-learning執(zhí)行以下更新:這個(gè)過程會收斂到最優(yōu)的q值函數(shù)嗎?如果是,請寫“是”。如果沒有則給出一個(gè)解釋(根據(jù)價(jià)值的種類、最優(yōu)性等),如它將收斂到什么地方,或說明它不會收斂。(2)SARSA執(zhí)行以下更新:這個(gè)過程會收斂到最優(yōu)的q值函數(shù)嗎?如果是,請寫“是”。如果沒有則給出一個(gè)解釋(根據(jù)價(jià)值的種類、最優(yōu)性等),如它將收斂到什么地方,或說明它不會收斂。

答案:第七章測試使用強(qiáng)化學(xué)習(xí)狀態(tài)的泛化表示的好處有()。

A:可以減少采樣

B:可以采樣更多的樣本

C:復(fù)雜的計(jì)算獲得更精確的表示

D:減少內(nèi)存的消耗

答案:AD在強(qiáng)化學(xué)習(xí)值函數(shù)近似中,蒙特卡洛方法對梯度計(jì)算是()。

A:

B:

C:

D:

答案:A在強(qiáng)化學(xué)習(xí)值函數(shù)近似中,時(shí)間差分方法對梯度計(jì)算是()。

A:

B:

C:

D:

答案:B在強(qiáng)化學(xué)習(xí)值函數(shù)近似中,蒙特卡洛方法中可以使用SARSA和Q-learning進(jìn)行真值的學(xué)習(xí)()

A:對

B:錯(cuò)

答案:B強(qiáng)化學(xué)習(xí)中有有模型的方法和無模型的方法()

A:對

B:錯(cuò)

答案:A第八章測試隨機(jī)變量X的概率分布如下圖,則x等于()。

A:0.1

B:0.4

C:0.5

D:0.2

答案:C已知隨機(jī)變量T和W的聯(lián)合概率分布表,則P(T=hot)=,P(W=sun)=。

答案:已知男女比例可以看成各占一半,男子中由5%患色盲癥,女子中0.25%患色盲癥,隨機(jī)抽取一患有色盲癥的人,其是男子的概率是=___。

答案:如果x,y在z的條件下相互獨(dú)立,則P(x,y|z)=P(x|z)*___。

答案:貝葉斯網(wǎng)絡(luò)中,節(jié)點(diǎn)的含義是什么()。

A:概率值

B:隨機(jī)變量

C:獨(dú)立性

D:變量關(guān)系

答案:B在下面的貝葉斯網(wǎng)絡(luò)中,正確的選項(xiàng)有()。

A:P(-cavity,catch,-toothache)=P(-cavity)P(catch)P(-toothache)

B:P(cavity,-catch,-toothache)=P(cavity)P(-catch|(cavity)P(-toothache)|cavity)

C:P(cavity,catch,-toothache)=P(cavity)P(catch|-cavity)P(toothache)|cavity)

D:P(-cavity,catch,-toothache)=P(-cavity)P(catch|(-cavity)P(-toothache)|-cavity)

答案:BD在下面的貝葉斯網(wǎng)絡(luò)中,不給定Cavity和給定Cavity的情況下,Toothache和Catch的獨(dú)立性分別是()。

A:獨(dú)立,獨(dú)立

B:獨(dú)立,不獨(dú)立

C:不獨(dú)立,獨(dú)立

D:不獨(dú)立,不獨(dú)立

答案:C某衣帽廠有甲、乙、丙三個(gè)工作間生產(chǎn)同一種衣服,已知各個(gè)工作間的產(chǎn)量分別占全廠產(chǎn)量的25%、35%、40%,甲、乙、丙工作間的次品率為5%、4%、2%,現(xiàn)在從衣帽廠中檢查出一個(gè)次品,是由甲工作間生產(chǎn)的概率是多少。

答案:Pacman的操作數(shù)據(jù)集中,分為訓(xùn)練數(shù)據(jù)集、驗(yàn)證數(shù)據(jù)集和測試數(shù)據(jù)集。下面是數(shù)據(jù)集的訓(xùn)練集:請回答下面的問題:(1)使用標(biāo)準(zhǔn)樸素貝葉斯算法,計(jì)算下面三個(gè)概率的結(jié)果:P(sp=C|a=left)P(sp=A|a=right)P(a=left)(2)使用標(biāo)準(zhǔn)樸素貝葉斯算法,在接下來的場景中應(yīng)該選擇left還是right?sp=A,sg=Csp=C,sg=B

答案:第九章測試下面屬于精確推理的方法是():

A:拒絕采樣法

B:似然加權(quán)法

C:變量消元法

D:枚舉推理法

答案:CD特征因子包括哪幾種():

A:單條件分布

B:聯(lián)合分布

C:多條件分布

D:選定聯(lián)合分布

答案:ABCD似然加權(quán)法是重要性采樣的特殊情況,可能會生成不符合證據(jù)變量的樣本()。

A:錯(cuò)

B:對

答案:A貝葉斯網(wǎng)絡(luò)中精確推理的復(fù)雜度依賴于網(wǎng)絡(luò)結(jié)構(gòu)和網(wǎng)絡(luò)規(guī)模()。

A:錯(cuò)

B:對

答案:B如下所示貝葉斯網(wǎng)絡(luò)。N表示某個(gè)區(qū)域內(nèi)的恒星數(shù)目。M1,M2分別表示兩個(gè)望遠(yuǎn)鏡的觀測結(jié)果。假設(shè)觀測結(jié)果有e的概率多數(shù)1顆恒星,也有w的概率少數(shù)1顆恒星。且每臺望眼鏡可能有f的概率出現(xiàn)對焦問題(f<e),分別記為F1,F2。對焦問題會導(dǎo)致觀測結(jié)果至少減少三顆恒星(如果N<=3,則一顆恒星都觀測不到)。(1)N∈{1,2,3},M1∈{0,1,2,3,4}。請畫出P(M1|N)的條件概率表(2)假設(shè)兩個(gè)望遠(yuǎn)鏡完全相同,N∈{1,2,3},M1,M2∈{0,1,2,3,4}。設(shè)pi=P(N=i)。計(jì)算概率分布P(N|M1=2,M2=2)。

答案:A,B,C,D是四個(gè)隨機(jī)變量,A的值域是_,B的值域是_,C的值域是_,D的值域是_(1)給定因子P(A|C)和P(B!A,C),在逐點(diǎn)相乘后,產(chǎn)生因子的維度是_,元素個(gè)數(shù)為_。(2)給定因子P(A|B),P(B!C),和P(C),對C變量消元,產(chǎn)生新的因子維度是_,元素個(gè)數(shù)為_。(3)給定因子P(A|C)和P(B!A,C),對A進(jìn)行變量消元,產(chǎn)生新的因子維度是_,元素個(gè)數(shù)為_。(4)給定因子P(C|A),P(D!A,B,C)和P(B|A,C),對C進(jìn)行變量消元,產(chǎn)生新的因子維度是_,元素個(gè)數(shù)為_。

答案:第十章測試對于隱馬爾可夫模型(HMM),設(shè)其觀察值空間為O={o1,o2,…,oN},狀態(tài)空間為:S={s1,s2,…,sK},觀測值序列為Y={y1,y2,…,yT}。如果用維特比算法(Viterbialgorithm)進(jìn)行解碼,時(shí)間復(fù)雜為()。

A:O(NK2)

B:O(T

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論