MOOC 人工智能原理與實(shí)踐-中山大學(xué) 中國大學(xué)慕課答案_第1頁
MOOC 人工智能原理與實(shí)踐-中山大學(xué) 中國大學(xué)慕課答案_第2頁
MOOC 人工智能原理與實(shí)踐-中山大學(xué) 中國大學(xué)慕課答案_第3頁
MOOC 人工智能原理與實(shí)踐-中山大學(xué) 中國大學(xué)慕課答案_第4頁
MOOC 人工智能原理與實(shí)踐-中山大學(xué) 中國大學(xué)慕課答案_第5頁
已閱讀5頁,還剩27頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

MOOC人工智能原理與實(shí)踐-中山大學(xué)中國大學(xué)慕課答案強(qiáng)化學(xué)習(xí)基本概念-隨堂測驗(yàn)1、問題:強(qiáng)化學(xué)習(xí)問題模型包含以下哪些項(xiàng)目選項(xiàng):A、狀態(tài)空間B、動作策略C、獎勵信號D、以上都是正確答案:【以上都是】課后習(xí)題單元測驗(yàn)11、問題:由數(shù)字5,6,7,9可以組成多少個沒有重復(fù)數(shù)字的三位數(shù)選項(xiàng):A、9B、15C、24D、48正確答案:【24】2、問題:以下屬于生成模型的是選項(xiàng):A、svmB、隨機(jī)森林C、隱馬爾科夫模型HMMD、邏輯回歸正確答案:【隱馬爾科夫模型HMM】3、問題:下列哪項(xiàng)關(guān)于模型能力的描述是正確的選項(xiàng):A、隱藏層層數(shù)增加,模型能力一定增加B、Dropout的比例增加,模型能力增加C、學(xué)習(xí)率增加,模型能力增加D、都不正確正確答案:【都不正確】4、問題:某城市發(fā)生了一起汽車撞人逃跑事件,該城市只有兩種顏色的車,藍(lán)20%綠80%,事發(fā)時(shí)現(xiàn)場有一個目擊者,他指證是藍(lán)車,但是根據(jù)專家在現(xiàn)場分析,當(dāng)時(shí)那種條件能看正確的可能性是80%,那么,肇事的車是藍(lán)車的概率是多少?選項(xiàng):A、80%B、84%C、50%D、64%正確答案:【50%】5、問題:以下選項(xiàng)中哪項(xiàng)不能有效解決過擬合?選項(xiàng):A、增加樣本數(shù)量B、通過特征選擇減少特征數(shù)量C、訓(xùn)練更多迭代次數(shù)D、采用正則化正確答案:【訓(xùn)練更多迭代次數(shù)】6、填空題:LR和SVM都可以處理分類問題,而且一般都用于處理______問題正確答案:【二分類】7、填空題:嶺回歸可以用于解決模型______問題正確答案:【過擬合】8、填空題:L1范數(shù)的定義為_______。正確答案:【向量各元素絕對值之和】9、填空題:K-NN算法在_______的情況下效果最好正確答案:【樣本較少但是典型性好】10、填空題:機(jī)器學(xué)習(xí)根據(jù)是否使用標(biāo)簽信息,可以分為______________兩大類正確答案:【監(jiān)督學(xué)習(xí)和無監(jiān)督學(xué)習(xí)】單元測驗(yàn)1、問題:關(guān)于Qlearning,以下說法正確的是選項(xiàng):A、Qlearning是一種onpolicy算法B、Qlearning是基于策略梯度的算法C、Qlearning是基于模型的方法D、以上都不對正確答案:【以上都不對】2、問題:Qlearning通過()存儲Q值選項(xiàng):A、QtableB、神經(jīng)網(wǎng)絡(luò)C、近似函數(shù)D、以上都不對正確答案:【Qtable】3、問題:關(guān)于神經(jīng)網(wǎng)絡(luò),正確的是選項(xiàng):A、神經(jīng)網(wǎng)絡(luò)是一種萬能近似函數(shù)B、神經(jīng)網(wǎng)絡(luò)不能解決空間問題C、神經(jīng)網(wǎng)絡(luò)不能用于強(qiáng)化學(xué)習(xí)D、以上都不對正確答案:【神經(jīng)網(wǎng)絡(luò)是一種萬能近似函數(shù)】4、問題:關(guān)于SARSA算法,以下說法正確的是選項(xiàng):A、SARSA是onpolicy算法B、SARSA是基于模型的算法C、SARSA是基于策略梯度的算法D、以上都不對正確答案:【SARSA是onpolicy算法】5、問題:Qlearning和SARSA相比,其不同之處在于選項(xiàng):A、SARSA是onpolicy算法,Qlearning是offpolicy算法B、SARSA比Qlearning更高效C、Qlearning能處理連續(xù)動作,SARSA不行D、以上都不對正確答案:【SARSA是onpolicy算法,Qlearning是offpolicy算法】6、問題:DQN是一種()選項(xiàng):A、能處理連續(xù)動作問題的算法B、on-policy算法C、off-policy算法D、以上都不對正確答案:【off-policy算法】7、問題:DQN中,通過()保存Q值選項(xiàng):A、神經(jīng)網(wǎng)絡(luò)B、Q表C、近似函數(shù)D、以上都不對正確答案:【神經(jīng)網(wǎng)絡(luò)】8、問題:Qlearning和DQN的區(qū)別在于()選項(xiàng):A、Qlearning能處理連續(xù)動作,DQN不能B、Qlearning是off-policy,DQN是on-policyC、DQN使用了神經(jīng)網(wǎng)絡(luò)和經(jīng)驗(yàn)回放D、以上都不對正確答案:【DQN使用了神經(jīng)網(wǎng)絡(luò)和經(jīng)驗(yàn)回放】9、問題:在DQN算法中,共有()個神經(jīng)網(wǎng)絡(luò)選項(xiàng):A、1B、2C、3D、4正確答案:【2】10、問題:DQN算法的優(yōu)勢不正確的是選項(xiàng):A、避免窮舉計(jì)算B、提高時(shí)間效率C、提高空間效率D、以上都不對正確答案:【以上都不對】11、問題:關(guān)于DQN的優(yōu)點(diǎn),以下錯誤的是選項(xiàng):A、通用性強(qiáng)B、端到端的訓(xùn)練C、容易獲取各種訓(xùn)練樣本D、以上都不對正確答案:【以上都不對】12、問題:關(guān)于DQN的缺點(diǎn),以下正確的是選項(xiàng):A、不能用于連續(xù)動作控制B、不能進(jìn)行長期記憶的訓(xùn)練C、訓(xùn)練效率低下D、以上都不對正確答案:【以上都不對】13、問題:關(guān)于經(jīng)驗(yàn)回放,以下說法錯誤的是選項(xiàng):A、經(jīng)驗(yàn)回放分布是非靜態(tài)分布B、不能用連續(xù)狀態(tài)動作作為代表樣本C、訓(xùn)練時(shí)是隨機(jī)抽取樣本D、以上都不對正確答案:【以上都不對】14、問題:使用兩個Q網(wǎng)絡(luò)進(jìn)行學(xué)習(xí)的好處選項(xiàng):A、避免算法不收斂B、加速算法訓(xùn)練速度C、提升強(qiáng)化學(xué)習(xí)性能D、以上都不對正確答案:【避免算法不收斂】15、問題:關(guān)于策略梯度的優(yōu)點(diǎn),以下描述不正確的是選項(xiàng):A、能表示隨機(jī)策略B、能輸出連續(xù)動作C、訓(xùn)練更穩(wěn)定D、以上都不對正確答案:【以上都不對】16、問題:關(guān)于策略梯度的描述,以下正確的是選項(xiàng):A、不需要進(jìn)行值函數(shù)更新B、不能直接輸出策略C、訓(xùn)練時(shí)更不穩(wěn)定D、以上都不對正確答案:【不需要進(jìn)行值函數(shù)更新】17、問題:關(guān)于Qlearning和策略梯度,以下說法正確的是選項(xiàng):A、Qlearning有時(shí)無法得到最優(yōu)B、策略梯度學(xué)習(xí)的策略優(yōu)于QlearningC、策略梯度只能輸出穩(wěn)定策略D、以上都不對正確答案:【Qlearning有時(shí)無法得到最優(yōu)】18、問題:進(jìn)行梯度策略的優(yōu)化技巧有哪些選項(xiàng):A、增加baselineB、分配合適的分?jǐn)?shù)C、增加優(yōu)勢函數(shù)D、以上都是正確答案:【以上都是】19、問題:對于策略梯度,MC和TD的區(qū)別在于選項(xiàng):A、MC更新頻率更低B、TD更新頻率為一個動作結(jié)束后C、兩者的目標(biāo)一致D、以上都是正確答案:【以上都是】20、問題:關(guān)于Reinforce算法過程,下面說法正確的是選項(xiàng):A、基于確定性策略輸出每個動作的概率B、通過采樣的方法選擇動作與環(huán)境進(jìn)行交互C、計(jì)算損失函數(shù)D、以上都是正確答案:【以上都是】21、問題:關(guān)于DPG算法,下面說法正確的是選項(xiàng):A、輸出隨機(jī)策略B、輸出確定策略C、共有3個神經(jīng)網(wǎng)絡(luò)D、以上都不正確正確答案:【輸出確定策略】22、問題:關(guān)于DPG的高估計(jì)問題,下面說法正確的是選項(xiàng):A、通過優(yōu)勢函數(shù)減緩過估計(jì)問題B、通過增加神經(jīng)網(wǎng)絡(luò)減緩過估計(jì)問題C、通過減少神經(jīng)網(wǎng)絡(luò)減緩過估計(jì)問題D、以上都不正確正確答案:【通過優(yōu)勢函數(shù)減緩過估計(jì)問題】23、問題:關(guān)于DDPG算法,下面說法正確的是選項(xiàng):A、包含actorcritic兩個部分B、共有4個神經(jīng)網(wǎng)絡(luò)C、輸出確定性策略D、以上都正確正確答案:【以上都正確】24、問題:關(guān)于trpo,下列說法正確的是選項(xiàng):A、保證RL算法單調(diào)收斂B、是一種策略梯度算法C、TRPO使用了重要性采樣D、以上都對正確答案:【以上都對】25、問題:關(guān)于TRPO的優(yōu)勢,下列說法正確的是選項(xiàng):A、TRPO對超參數(shù)不敏感B、TRPO訓(xùn)練過程穩(wěn)定C、TRPO樣本效率更高D、以上都對正確答案:【以上都對】26、問題:關(guān)于策略梯度,下列說法正確的是選項(xiàng):A、對超參數(shù)敏感B、訓(xùn)練過程波動很大C、樣本效率低下D、以上都對正確答案:【以上都對】27、問題:關(guān)于PPO,下列說法正確的是選項(xiàng):A、本質(zhì)上是一種actor-critic算法B、參數(shù)更新速度快C、樣本效率更高D、以上都對正確答案:【以上都對】28、問題:關(guān)于PPO,下列說法正確的是選項(xiàng):A、PPO是一種offpolicy的算法B、PPO是一種onpolicy的算法C、PPO是一種基于值函數(shù)的方法D、以上都對正確答案:【PPO是一種onpolicy的算法】單元測驗(yàn)1、問題:多智能體強(qiáng)化學(xué)習(xí)的任務(wù)類型包括選項(xiàng):A、完全合作類型B、完全競爭類型C、合作競爭類型D、以上都正確正確答案:【以上都正確】2、問題:關(guān)于多智能體信息共享,以下說法不正確的是選項(xiàng):A、擴(kuò)展?fàn)顟B(tài)空間B、學(xué)習(xí)相同動作獲得的獎勵的變化C、分享動作幕或?qū)<医?jīng)驗(yàn)D、通過Q值共享策略正確答案:【學(xué)習(xí)相同動作獲得的獎勵的變化】3、問題:關(guān)于簡單平均Q值方法,以下說法不正確的是選項(xiàng):A、所有智能體學(xué)習(xí)到相同的策略B、該方法假設(shè)所有智能體的動作對整體所作貢獻(xiàn)相同C、該方法對所有智能體而言是公平的D、該方法由于處理全局狀態(tài)信息,因而收斂速度較慢正確答案:【該方法對所有智能體而言是公平的】4、問題:關(guān)于IQL,以下說法不正確的是選項(xiàng):A、IQL不能保證收斂B、每個智能體獨(dú)立學(xué)習(xí)策略,與其他智能體沒有信息交互C、簡單平均Q值方法處理的是全局狀態(tài),IQL處理的是局部觀察D、從每個智能體的角度看,環(huán)境依然是靜態(tài)的正確答案:【從每個智能體的角度看,環(huán)境依然是靜態(tài)的】5、問題:關(guān)于多智能體學(xué)習(xí)所面臨的挑戰(zhàn),以下說法不正確的是選項(xiàng):A、智能體能夠根據(jù)僅自身的局部觀察推斷出當(dāng)前所處狀態(tài)B、單個智能體無法站在全局的角度去觀察并決策C、智能體都在學(xué)習(xí),策略不斷變化,選擇的動作也隨之變化,導(dǎo)致環(huán)境隨時(shí)發(fā)生不可預(yù)測的變化D、不同智能體的動作對整體的貢獻(xiàn)難以確定正確答案:【智能體能夠根據(jù)僅自身的局部觀察推斷出當(dāng)前所處狀態(tài)】6、問題:關(guān)于集中式訓(xùn)練分布式執(zhí)行,以下說法不正確的是選項(xiàng):A、critic處理全局信息,actor處理局部觀察B、在訓(xùn)練和執(zhí)行的時(shí)候都需要用到criticC、該框架相當(dāng)于通過critic來與其他智能體交換信息D、該框架難以應(yīng)用于現(xiàn)實(shí)環(huán)境,因?yàn)楝F(xiàn)實(shí)任務(wù)場景中難以獲得全局狀態(tài)信息正確答案:【在訓(xùn)練和執(zhí)行的時(shí)候都需要用到critic】7、問題:將DDPG擴(kuò)展到多智能體環(huán)境,MADDPG所作改進(jìn)包括選項(xiàng):A、使用集中式訓(xùn)練分布式執(zhí)行框架B、改進(jìn)經(jīng)驗(yàn)回放記錄的數(shù)據(jù)C、利用策略集合效果優(yōu)化D、以上都包括正確答案:【以上都包括】8、問題:關(guān)于MADDPG,以下說法不正確的是選項(xiàng):A、MADDPG中各個智能體能共享同一個actorB、MADDPG中各個智能體能共享同一個criticC、critic在更新時(shí)只需要知道全局狀態(tài)信息,不需要知道其他智能體的動作信息D、MADDPG中各個智能體最終學(xué)習(xí)到的是確定性策略正確答案:【critic在更新時(shí)只需要知道全局狀態(tài)信息,不需要知道其他智能體的動作信息】9、問題:關(guān)于QMIX,以下說法不正確的是選項(xiàng):A、QMIX假設(shè)全局Q值和局部Q值滿足單調(diào)約束關(guān)系B、在滿足約束條件后,單個智能體的局部最優(yōu)動作組合即為全局最優(yōu)動作C、QMIX不屬于集中式訓(xùn)練分布式執(zhí)行框架D、QMIX只能應(yīng)用于離散動作任務(wù)正確答案:【QMIX不屬于集中式訓(xùn)練分布式執(zhí)行框架】10、問題:關(guān)于QMIX的混合網(wǎng)絡(luò),以下說法正確的是選項(xiàng):A、混合網(wǎng)絡(luò)需要根據(jù)當(dāng)前全局狀態(tài)信息計(jì)算全局Q值的分解權(quán)重B、每個智能體都有自己的混合網(wǎng)絡(luò)C、智能體在執(zhí)行時(shí)需要用到混合網(wǎng)絡(luò)D、在更新混合網(wǎng)絡(luò)時(shí)可以使用智能體的局部獎勵函數(shù)正確答案:【混合網(wǎng)絡(luò)需要根據(jù)當(dāng)前全局狀態(tài)信息計(jì)算全局Q值的分解權(quán)重】人腦神經(jīng)網(wǎng)絡(luò)和人工神經(jīng)網(wǎng)絡(luò)-隨堂測驗(yàn)1、問題:人工神經(jīng)網(wǎng)絡(luò)是一種模擬生物神經(jīng)網(wǎng)絡(luò)的數(shù)學(xué)模型,能夠擬合所有的函數(shù)選項(xiàng):A、正確B、錯誤正確答案:【正確】2、問題:當(dāng)前人工神經(jīng)網(wǎng)絡(luò)的神經(jīng)元可以無限疊加選項(xiàng):A、正確B、錯誤正確答案:【錯誤】人工神經(jīng)元-隨堂測驗(yàn)1、問題:神經(jīng)網(wǎng)絡(luò)模型(NeuralNetwork)因受人類大腦的啟發(fā)而得名,神經(jīng)網(wǎng)絡(luò)由許多神經(jīng)元(Neuron)組成,每個神經(jīng)元接受一個輸入,對輸入進(jìn)行處理后給出一個輸出,如下圖所示。請問下列關(guān)于神經(jīng)元的描述中,哪一項(xiàng)是正確的?選項(xiàng):A、每個神經(jīng)元可以有多個輸入和一個輸出B、每個神經(jīng)元可以有一個輸入和多個輸出C、每個神經(jīng)元可以有多個輸入和多個輸出D、上述都不正確正確答案:【上述都不正確】2、問題:下列哪一項(xiàng)在神經(jīng)網(wǎng)絡(luò)中引入了非線性選項(xiàng):A、隨機(jī)梯度下降B、ReLU激活函數(shù)C、卷積函數(shù)D、以上都不正確正確答案:【ReLU激活函數(shù)】前饋神經(jīng)網(wǎng)絡(luò)-隨堂測驗(yàn)1、問題:在前饋神經(jīng)網(wǎng)絡(luò)中,每個神經(jīng)元只和前一層的神經(jīng)元相連。選項(xiàng):A、正確B、錯誤正確答案:【正確】2、問題:正向傳播的基本流程包括:輸入層,隱藏層,激活層和輸出層選項(xiàng):A、正確B、錯誤正確答案:【錯誤】課后習(xí)題多層神經(jīng)網(wǎng)絡(luò)的參數(shù)學(xué)習(xí)-隨堂測驗(yàn)1、問題:單層感知器最大的缺陷是它只能解決線性可分的分類模式問題,要增強(qiáng)網(wǎng)絡(luò)的分類能力唯一的方法是采用多層網(wǎng)絡(luò)結(jié)構(gòu),與單層感知器相比較,下面()不是多層網(wǎng)絡(luò)所有的特點(diǎn)。選項(xiàng):A、具有獨(dú)特的學(xué)習(xí)算法B、含有一層或多層隱藏單元C、激活函數(shù)采用可微的函數(shù)D、神經(jīng)元的數(shù)目可以達(dá)到很大正確答案:【具有獨(dú)特的學(xué)習(xí)算法】2、問題:對于一個多層神經(jīng)網(wǎng)絡(luò),可以采用反向傳播算法來迭代地更新網(wǎng)絡(luò)中神經(jīng)元的參數(shù)。選項(xiàng):A、正確B、錯誤正確答案:【正確】梯度下降方法-隨堂測驗(yàn)1、問題:批量梯度下降法是對隨機(jī)梯度下降法的改良,能夠更穩(wěn)定地更新神經(jīng)元參數(shù)選項(xiàng):A、正確B、錯誤正確答案:【正確】2、問題:通過鏈?zhǔn)椒▌t,神經(jīng)網(wǎng)絡(luò)可以使用反向梯度傳播來更新參數(shù)選項(xiàng):A、正確B、錯誤正確答案:【正確】反向傳播算法-隨堂測驗(yàn)1、問題:BP算法適合用于多層神經(jīng)網(wǎng)絡(luò),它建立在梯度下降算法的基礎(chǔ)上。選項(xiàng):A、正確B、錯誤正確答案:【正確】2、問題:誤差反向傳播算法主要由兩個環(huán)節(jié),即激勵傳播和權(quán)重更新,反復(fù)循環(huán)迭代。選項(xiàng):A、正確B、錯誤正確答案:【正確】課后習(xí)題多機(jī)器人集群控制-多機(jī)器人集群-隨堂測驗(yàn)1、問題:相比于單智能體系統(tǒng),強(qiáng)化學(xué)習(xí)應(yīng)用在多智能體系統(tǒng)中會遇到哪些問題和挑戰(zhàn)?選項(xiàng):A、環(huán)境的不穩(wěn)定性:智能體在做決策的同時(shí),其他智能體也在采取動作;環(huán)境狀態(tài)的變化與所有智能體的聯(lián)合動作相關(guān)B、智能體獲取信息的局限性:不一定能夠獲得全局的信息,智能體僅能獲取局部的觀測信息,但無法得知其他智能體的觀測信息、動作和獎勵等信息;C、個體的目標(biāo)一致性:各智能體的目標(biāo)可能是最優(yōu)的全局回報(bào);也可能是各自局部回報(bào)的最優(yōu);D、可拓展性:在大規(guī)模的多智能體系統(tǒng)中,就會涉及到高維度的狀態(tài)空間和動作空間,對于模型表達(dá)能力和真實(shí)場景中的硬件算力有一定的要求。正確答案:【環(huán)境的不穩(wěn)定性:智能體在做決策的同時(shí),其他智能體也在采取動作;環(huán)境狀態(tài)的變化與所有智能體的聯(lián)合動作相關(guān)#智能體獲取信息的局限性:不一定能夠獲得全局的信息,智能體僅能獲取局部的觀測信息,但無法得知其他智能體的觀測信息、動作和獎勵等信息;#個體的目標(biāo)一致性:各智能體的目標(biāo)可能是最優(yōu)的全局回報(bào);也可能是各自局部回報(bào)的最優(yōu);#可拓展性:在大規(guī)模的多智能體系統(tǒng)中,就會涉及到高維度的狀態(tài)空間和動作空間,對于模型表達(dá)能力和真實(shí)場景中的硬件算力有一定的要求?!慷鄼C(jī)器人集群控制-多智能體信息融合-隨堂測驗(yàn)1、問題:多智能體間關(guān)系包括絕對合作、絕對競爭、中立三類關(guān)系選項(xiàng):A、正確B、錯誤正確答案:【正確】多機(jī)器人集群控制-多智能體協(xié)調(diào)的學(xué)習(xí)控制方法-隨堂測驗(yàn)1、問題:常見的物體定位技術(shù)包括()選項(xiàng):A、GPS定位B、基站定位C、混合定位D、以上都是正確答案:【GPS定位#基站定位#混合定位#以上都是】單元測驗(yàn)1、問題:關(guān)于強(qiáng)化學(xué)習(xí)描述正確的有:選項(xiàng):A、是不完全已知的馬爾可夫決策過程的最優(yōu)控制。B、從知識淵博的教練所提供的有標(biāo)記的訓(xùn)練集中學(xué)習(xí)。C、尋找隱藏在未標(biāo)記數(shù)據(jù)集合中的結(jié)構(gòu)。D、強(qiáng)化學(xué)習(xí)直接考慮目標(biāo)指向智能人與不確定環(huán)境交互的整個問題,而不是考慮逐個子問題。正確答案:【是不完全已知的馬爾可夫決策過程的最優(yōu)控制。#強(qiáng)化學(xué)習(xí)直接考慮目標(biāo)指向智能人與不確定環(huán)境交互的整個問題,而不是考慮逐個子問題。】2、問題:基于時(shí)間差分(TD)的方法有:選項(xiàng):A、動態(tài)規(guī)劃算法B、Q-LearningC、SarsaD、蒙特卡洛算法正確答案:【Q-Learning#Sarsa】3、問題:動態(tài)規(guī)劃(DP)算法的特征:選項(xiàng):A、需要具體的環(huán)境、獎勵、狀態(tài)概率分布的模型B、過大的計(jì)算開銷C、可以獲取精確解D、通過更新規(guī)則逐步逼近期望的值函數(shù)正確答案:【需要具體的環(huán)境、獎勵、狀態(tài)概率分布的模型#過大的計(jì)算開銷#可以獲取精確解#通過更新規(guī)則逐步逼近期望的值函數(shù)】4、問題:蒙特卡洛(MC)算法的特征:選項(xiàng):A、需要具體的環(huán)境、獎勵、狀態(tài)概率分布的模型B、需等到一個episode結(jié)束才能更新C、是無偏估計(jì)D、可以只估計(jì)一部分我們關(guān)心的狀態(tài)或一個子空間正確答案:【需等到一個episode結(jié)束才能更新#是無偏估計(jì)#可以只估計(jì)一部分我們關(guān)心的狀態(tài)或一個子空間】5、問題:假如強(qiáng)化學(xué)習(xí)算法不是與固定對手競爭,而是與自己競爭,雙方都在學(xué)習(xí)。在這種情況下會發(fā)生什么?選項(xiàng):A、會學(xué)習(xí)一個不同于玩一個固定對手的策略,因?yàn)樵谶@種情況下對手也會改變。B、可能無法學(xué)習(xí)一個最佳的策略,因?yàn)閷κ忠苍诓粩嘧兓?。C、可能會被困在循環(huán)中。D、策略可以保持靜態(tài),因?yàn)槠骄禃紤]每次迭代。正確答案:【會學(xué)習(xí)一個不同于玩一個固定對手的策略,因?yàn)樵谶@種情況下對手也會改變。#可能無法學(xué)習(xí)一個最佳的策略,因?yàn)閷κ忠苍诓粩嘧兓?可能會被困在循環(huán)中。#策略可以保持靜態(tài),因?yàn)槠骄禃紤]每次迭代?!?、問題:強(qiáng)化學(xué)習(xí)組成元素包括智能體、環(huán)境、策略、獎勵、值函數(shù),以及一個可選的環(huán)境模型。選項(xiàng):A、正確B、錯誤正確答案:【正確】7、問題:試錯和延遲獎勵是強(qiáng)化學(xué)習(xí)兩個最重要的特點(diǎn)。選項(xiàng):A、正確B、錯誤正確答案:【正確】8、問題:探索與利用不是強(qiáng)化學(xué)習(xí)中的一個困境。選項(xiàng):A、正確B、錯誤正確答案:【錯誤】9、問題:強(qiáng)化學(xué)習(xí)具有一個完整的、交互式的、尋求目標(biāo)的個體,也就是一個完整的有機(jī)體或機(jī)器人。選項(xiàng):A、正確B、錯誤正確答案:【錯誤】10、問題:貪婪算法一定比非貪婪算法表現(xiàn)得糟糕。選項(xiàng):A、正確B、錯誤正確答案:【錯誤】搜索-問題定義-隨堂測驗(yàn)1、問題:深度優(yōu)先搜索算法的搜索策略是按層遍歷選項(xiàng):A、正確B、錯誤正確答案:【錯誤】2、問題:雙向廣度優(yōu)先搜索的搜索效率比廣度優(yōu)先搜索的效率要低選項(xiàng):A、正確B、錯誤正確答案:【錯誤】搜索-樹搜索-隨堂測驗(yàn)1、問題:二叉樹的深度為k,則二叉樹最多有()個節(jié)點(diǎn)選項(xiàng):A、B、C、D、正確答案:【】2、問題:二叉樹的前序和后序遍歷能夠唯一確定這顆二叉樹選項(xiàng):A、正確B、錯誤正確答案:【錯誤】搜索-廣度優(yōu)先搜索-隨堂測驗(yàn)1、問題:存在這樣一顆二叉樹,對它采用任何次序的遍歷,結(jié)果相同選項(xiàng):A、正確B、錯誤正確答案:【錯誤】2、問題:Dijkstra單源最短路徑算法和Prim最小生成樹算法都采用了和寬度有限搜索類似的思想選項(xiàng):A、正確B、錯誤正確答案:【正確】搜索-深度優(yōu)先搜索-隨堂測驗(yàn)1、問題:調(diào)用一次深度優(yōu)先遍歷可以訪問到圖中所有的定點(diǎn)。(連通圖)選項(xiàng):A、正確B、錯誤正確答案:【正確】搜索-一致代價(jià)搜索-隨堂測驗(yàn)1、問題:下列關(guān)于UCS的說法錯誤的是選項(xiàng):A、UCS肯定可以找到最優(yōu)解B、UCS找到的解花費(fèi)最小C、UCS的搜索復(fù)雜度高于A*算法D、以上說法都不正確正確答案:【以上說法都不正確】2、問題:一致代價(jià)搜索總是擴(kuò)展路徑消耗最大的節(jié)點(diǎn)選項(xiàng):A、正確B、錯誤正確答案:【錯誤】第七周課后習(xí)題啟發(fā)搜索-啟發(fā)函數(shù)-隨堂檢測1、問題:構(gòu)造和選擇合適的啟發(fā)函數(shù),以下正確的是選項(xiàng):A、啟發(fā)函數(shù)要簡單易算B、啟發(fā)函數(shù)越復(fù)雜越好C、函數(shù)不需要較高的精確度D、函數(shù)能夠計(jì)算即可,不需要反應(yīng)實(shí)際情況正確答案:【啟發(fā)函數(shù)要簡單易算】2、問題:評價(jià)函數(shù)的主要任務(wù)就是估計(jì)等搜索結(jié)點(diǎn)的重要程度,以確定結(jié)點(diǎn)的優(yōu)先級程度。選項(xiàng):A、正確B、錯誤正確答案:【正確】啟發(fā)搜索-A*算法-隨堂檢測1、問題:以下說法不正確的是選項(xiàng):A、A星算法具備可采納性B、A星算法具備單調(diào)性C、A星算法具備信息性D、以上都不對正確答案:【以上都不對】2、問題:A星算法是一種啟發(fā)式搜索算法選項(xiàng):A、正確B、錯誤正確答案:【正確】博弈搜索-對抗游戲-隨堂檢測1、問題:博弈搜索是多智能體參與的一種搜索方法,需要定義搜索的狀態(tài)空間,即博弈樹選項(xiàng):A、正確B、錯誤正確答案:【正確】2、問題:博弈搜索算法首先需要定義一個評估函數(shù)選項(xiàng):A、正確B、錯誤正確答案:【正確】博弈搜索-MINMAX算法-隨堂測驗(yàn)1、問題:minmax算法是一個零總和算法選項(xiàng):A、正確B、錯誤正確答案:【正確】2、問題:minmax算法是一種基于樹和遞歸的博弈算法選項(xiàng):A、正確B、錯誤正確答案:【正確】博弈搜索-alpha_beta算法-隨堂測驗(yàn)1、問題:alpha_beta剪枝算法是一種常用的人機(jī)對抗搜索算法,其基本思想是根據(jù)上一層的最優(yōu)結(jié)果決定是否要進(jìn)行下一步搜索選項(xiàng):A、正確B、錯誤正確答案:【正確】2、問題:alpha_beta剪枝算法和minmax算法是兩種完全不同的算法。選項(xiàng):A、正確B、錯誤正確答案:【錯誤】課后習(xí)題約束滿足-問題定義-隨堂測驗(yàn)1、問題:約束滿足問題(CSPs)是種數(shù)學(xué)的問題,其定義為一組對象(object),而這些對象需要滿足一些限制或條件。選項(xiàng):A、正確B、錯誤正確答案:【正確】2、問題:約束滿足問題定義為一個三元組選項(xiàng):A、正確B、錯誤正確答案:【正確】約束滿足-回溯搜索-隨堂測驗(yàn)1、問題:用回溯算法解決問題的一般步驟包括:選項(xiàng):A、針對所給問題,定義問題的解空間,它至少包含問題的一個(最優(yōu))解。B、確定易于搜索的解空間結(jié)構(gòu),使得能用回溯法方便地搜索整個解空間。C、以深度優(yōu)先的方式搜索解空間,并且在搜索過程中用剪枝函數(shù)避免無效搜索。D、以上都是正確答案:【以上都是】2、問題:回溯法是一種選優(yōu)搜索法,按選優(yōu)條件向前搜索,以達(dá)到目標(biāo)。選項(xiàng):A、正確B、錯誤正確答案:【正確】約束滿足-約束傳播-隨堂檢測1、問題:約束規(guī)劃(Constraintprogramming,CP)是人工智能領(lǐng)域的研究方法,適合求解具有多種約束的組合優(yōu)化問題.選項(xiàng):A、正確B、錯誤正確答案:【正確】2、問題:調(diào)度問題研究領(lǐng)域的約束傳播方法可以分為時(shí)間約束傳播和資源約束傳播兩類。選項(xiàng):A、正確B、錯誤正確答案:【正確】約束滿足-樹結(jié)構(gòu)-隨堂檢測1、問題:以下關(guān)于樹的說法正確的是選項(xiàng):A、每個元素稱為結(jié)點(diǎn)(node);B、有一個特定的結(jié)點(diǎn),稱為根結(jié)點(diǎn)或根(root);C、除根結(jié)點(diǎn)外,其余結(jié)點(diǎn)被分成m(m=0)個互不相交的有限集合,而每個子集又都是一棵樹(稱為原樹的子樹)D、以上都正確正確答案:【每個元素稱為結(jié)點(diǎn)(node);#有一個特定的結(jié)點(diǎn),稱為根結(jié)點(diǎn)或根(root);#除根結(jié)點(diǎn)外,其余結(jié)點(diǎn)被分成m(m=0)個互不相交的有限集合,而每個子集又都是一棵樹(稱為原樹的子樹)#以上都正確】2、問題:對于一個結(jié)點(diǎn),擁有的子樹數(shù)(結(jié)點(diǎn)有多少分支)稱為結(jié)點(diǎn)的度選項(xiàng):A、正確B、錯誤正確答案:【正確】單元測驗(yàn)21、問題:人工智能的含義最早由一位科學(xué)家于1950年提出,并且同時(shí)提出一個機(jī)器智能測試模型,請問這個科學(xué)家是選項(xiàng):A、明斯基B、扎德C、圖靈D、馮諾依曼正確答案:【圖靈】2、問題:下面哪個選項(xiàng)不是人工智能的研究領(lǐng)域選項(xiàng):A、機(jī)器證明B、模式識別C、人工生命D、編譯原理正確答案:【編譯原理】3、問題:神經(jīng)網(wǎng)絡(luò)研究屬于下面哪個學(xué)派選項(xiàng):A、符號主義B、連接主義C、行為主義D、都不是正確答案:【連接主義】4、問題:圖靈測試旨在給予哪一種令人滿意的操作定義選項(xiàng):A、人類思考B、人工智能C、機(jī)器智能D、機(jī)器動作正確答案:【機(jī)器智能】5、問題:如果問題存在最優(yōu)解,則下面哪種搜索算法一定可以得到該問題最優(yōu)解選項(xiàng):A、廣度優(yōu)先搜索B、深度優(yōu)先搜索C、有界深度優(yōu)先搜索D、啟發(fā)式搜索正確答案:【廣度優(yōu)先搜索】6、填空題:人工智能的研究途徑有______正確答案:【心理模擬、生理模擬和行為模擬】7、填空題:在一個搜索樹中,如果搜索是以同層節(jié)點(diǎn)依次擴(kuò)展節(jié)點(diǎn)的,那么這種搜索稱為。正確答案:【寬度優(yōu)先搜索】8、填空題:在啟發(fā)式搜索中,通常用______來表示啟發(fā)性信息正確答案:【啟發(fā)函數(shù)】9、填空題:在走迷宮、下棋等游戲中,常用的一種人工智能核心技術(shù)稱為正確答案:【圖搜索技術(shù)】10、填空題:AI的英文縮寫是正確答案:【ArtificalInteligence】機(jī)器學(xué)習(xí)-高等代數(shù)-隨堂檢測1、問題:設(shè)n階矩陣A,B,C滿足關(guān)系式ABC=E,其中E是單位矩陣,則有()選項(xiàng):A、ACB=EB、CBA=EC、BAC=ED、BCA=E正確答案:【BCA=E】2、問題:設(shè)A是n階段方陣,n大于3,是A的伴隨矩陣,k為常數(shù)且k不等于0,正負(fù)1。則必有選項(xiàng):=()A、B、C、D、正確答案:【】3、問題:設(shè)A,B均為n階方陣,則必有()選項(xiàng):A、B、C、D、正確答案:【】4、問題:設(shè)選項(xiàng):均為n階可逆矩陣,則等于A、B、C、D、正確答案:【】5、問題:A為n階方陣,則選項(xiàng):的必要條件是()A、A的兩行元素對應(yīng)成比例B、A中必有一行為其余元素的線性組合C、A中有一行元素全為零D、任一行為其余行的線性組合正確答案:【A中必有一行為其余元素的線性組合】6、問題:選項(xiàng):當(dāng)且僅當(dāng)A、正確B、錯誤正確答案:【錯誤】7、問題:若AB=BA,則選項(xiàng):A、正確B、錯誤正確答案:【正確】機(jī)器學(xué)習(xí)-高等數(shù)學(xué)I-隨堂練習(xí)1、問題:下列變量在給定的變化過程中為無窮小量的是()選項(xiàng):A、B、C、D、正確答案:【】2、問題:初等函數(shù)的定義域是其自然定義域的真子集選項(xiàng):A、正確B、錯誤正確答案:【錯誤】機(jī)器學(xué)習(xí)-高等數(shù)學(xué)Ⅱ-隨堂檢測1、問題:選項(xiàng):A、正確B、錯誤正確答案:【正確】2、問題:選項(xiàng):A、正確B、錯誤正確答案:【正確】機(jī)器學(xué)習(xí)-高等數(shù)學(xué)Ⅲ-隨堂檢測1、問題:sinx與x是等價(jià)無窮小量選項(xiàng):A、正確B、錯誤正確答案:【錯誤】2、問題:選項(xiàng):與為等價(jià)無窮小量A、正確B、錯誤正確答案:【錯誤】機(jī)器學(xué)習(xí)-概率初步-隨堂檢測1、問題:A,B為任意二隨機(jī)事件,則P(A-B)=P(A)-P(B)選項(xiàng):A、正確B、錯誤正確答案:【錯誤】2、問題:X,Y相互獨(dú)立,則X,Y必不相關(guān)選項(xiàng):A、正確B、錯誤正確答案:【正確】機(jī)器學(xué)習(xí)-統(tǒng)計(jì)回歸-隨堂練習(xí)1、問題:隨機(jī)變量的分布函數(shù)與特征函數(shù)相互唯一確定選項(xiàng):A、正確B、錯誤正確答案:【正確】2、問題:連續(xù)型隨機(jī)變量均有方差存在選項(xiàng):A、正確B、錯誤正確答案:【錯誤】機(jī)器學(xué)習(xí)-增量計(jì)算-隨堂檢測1、問題:隨機(jī)變量X,Y相互獨(dú)立,則D(X+Y)=D(X)+D(Y)選項(xiàng):A、正確B、錯誤正確答案:【正確】2、問題:設(shè)X,Y是隨機(jī)變量,X與Y不相關(guān)的充分必要條件是D(X+Y)=D(X)+D(Y)選項(xiàng):A、正確B、錯誤正確答案:【正確】單元測驗(yàn)1、問題:用模糊性知識進(jìn)行推理的一種不確定性推理的是選項(xiàng):A、模糊推理B、不確定性推理C、非單調(diào)推理D、時(shí)序推理正確答案:【模糊推理】2、問題:不確定性推理過程的不確定性不包括選項(xiàng):A、證據(jù)的不確定性B、規(guī)則的不確定性C、推理過程的不確定性D、知識表示方法的不確定性正確答案:【規(guī)則的不確定性】3、問題:一階規(guī)則通常不包括選項(xiàng):A、謂詞B、全稱量詞C、邏輯變量D、個體對象正確答案:【個體對象】4、問題:以下模型中屬于概率圖模型的有選項(xiàng):A、決策樹B、感知機(jī)C、支持向量機(jī)D、受限玻爾茲曼機(jī)正確答案:【受限玻爾茲曼機(jī)】5、問題:以下模型中屬于貝葉斯網(wǎng)絡(luò)的有選項(xiàng):A、馬爾科夫隨機(jī)場B、隱馬爾科夫模型C、邏輯斯蒂回歸D、樸素貝葉斯分類器正確答案:【樸素貝葉斯分類器】6、問題:以下模型中屬于判別式模型的有選項(xiàng):A、樸素貝葉斯分類器B、隱馬爾科夫模型C、條件隨機(jī)場D、隱狄利克雷分配模型正確答案:【條件隨機(jī)場#隱狄利克雷分配模型】7、問題:如圖所示無向圖,它的團(tuán)包括選項(xiàng):A、{A}B、{A,B}C、{A,B,C}D、{A,B,C,D}正確答案:【{A}#{A,B}#{A,B,C}】8、問題:概率圖模型可以分為選項(xiàng):A、生成式B、判別式C、集合式D、推斷式正確答案:【生成式#判別式】9、問題:由全局馬爾科夫性可以推導(dǎo)出選項(xiàng):A、局部馬爾可夫性B、成對馬爾科夫性C、條件獨(dú)立性D、非負(fù)性正確答案:【局部馬爾可夫性#成對馬爾科夫性】10、問題:下列關(guān)于條件隨機(jī)場CRF描述正確的是選項(xiàng):A、CRF是一種判別式無向圖模型B、CRF面向多維隨機(jī)變量進(jìn)行建模C、CRF常用于標(biāo)注或分析序列資料D、條件隨機(jī)場是概率模型正確答案:【CRF是一種判別式無向圖模型#CRF面向多維隨機(jī)變量進(jìn)行建模#CRF常用于標(biāo)注或分析序列資料#條件隨機(jī)場是概率模型】11、填空題:概率圖模型是____________結(jié)合的產(chǎn)物正確答案:【圖論和概率論】12、填空題:概率圖模型包括兩大方向:____________正確答案:【無向圖模型和有向圖模型】13、填空題:非確定性推理的典型方法是:______正確答案:【變分推斷】14、填空題:處理有向圖推斷的近似算法包括:____________正確答案:【合計(jì)算法和樸素均值場算法】15、填空題:基本的概率圖模型包括:__________________。正確答案:【貝葉斯網(wǎng)絡(luò),馬爾科夫網(wǎng)絡(luò)和隱馬爾科夫網(wǎng)絡(luò)】人工智能原理期末考試1、問題:圖靈測試旨在給予哪一種令人滿意的操作定義選項(xiàng):A、人類動作B、機(jī)器智能C、人類思考D、以上都不對正確答案:【機(jī)器智能】2、問題:人工智能的含義最早由一位科學(xué)家于1950年提出,請問這個科學(xué)家是選項(xiàng):A、馮諾依曼B、圖靈C、扎德D、明斯基正確答案:【圖靈】3、問題:下列哪個不是人工智能的研究領(lǐng)域選項(xiàng):A、人工生命B、模式識別C、機(jī)器證明D、編譯原理正確答案:【編譯原理】4、問題:已知初試問題的描述,通過一系列變換把此問題最終變?yōu)橐粋€子問題集合;這些子問題的解可以直接得到,從而解決了初試問題。這種知識表示法叫選項(xiàng):A、狀態(tài)空間法B、問題歸約法C、謂詞邏輯法D、語義網(wǎng)絡(luò)法正確答案:【問題歸約法】5、問題:如果問題存在最優(yōu)解,則下面幾種搜索算法中,哪一種必然可以獲得最優(yōu)解選項(xiàng):A、廣度優(yōu)先搜索B、深度優(yōu)先搜索C、有界深度優(yōu)先搜索D、啟發(fā)式搜索正確答案:【廣度優(yōu)先搜索】6、問題:想要讓機(jī)器具有智能,必須讓

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論