人工智能復(fù)習(xí)題+答案_第1頁(yè)
人工智能復(fù)習(xí)題+答案_第2頁(yè)
人工智能復(fù)習(xí)題+答案_第3頁(yè)
人工智能復(fù)習(xí)題+答案_第4頁(yè)
人工智能復(fù)習(xí)題+答案_第5頁(yè)
已閱讀5頁(yè),還剩14頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

人工智能復(fù)習(xí)題+答案1、網(wǎng)絡(luò)訓(xùn)練時(shí),常會(huì)遇到很多問(wèn)題,對(duì)于梯度消失問(wèn)題,我們可以通過(guò)選擇使用以下哪種函數(shù)減輕該問(wèn)題?A、Relu函數(shù)B、Sigmoid函數(shù)C、tanh函數(shù)D、Softsign函數(shù)答案:A2、隨機(jī)試驗(yàn)所有可能出現(xiàn)的結(jié)果,稱為()A、基本事件B、樣本C、全部事件D、樣本空間答案:D3、假定你在神經(jīng)網(wǎng)絡(luò)中的隱藏層中使用激活函數(shù)X。在特定神經(jīng)元給定任意輸入,你會(huì)得到輸出-0.01。X可能是以下哪一個(gè)激活函數(shù)?()A、ReLUB、tanhC、SigmoidD、以上都有可能答案:B4、機(jī)器學(xué)習(xí)中L1正則化和L2正則化的區(qū)別是?()A、使用L1可以得到稀疏的權(quán)值,使用L2可以得到平滑的權(quán)值B、使用L1可以得到平滑的權(quán)值,使用L2可以得到平滑的權(quán)值C、使用L1可以得到平滑的權(quán)值,使用L2可以得到稀疏的權(quán)值D、使用L1可以得到稀疏的權(quán)值,使用L2可以得到稀疏的權(quán)值答案:A5、下列哪個(gè)語(yǔ)句在Python中是不合法的()A、x=y=z=1B、x=y=z+1C、x,y=y,xD、x+=y答案:B6、表達(dá)式3|5的值為_(kāi)____。A、3B、7C、5D、$1答案:B7、關(guān)于常用評(píng)分函數(shù)描述錯(cuò)誤的為(___)A、基于信息論準(zhǔn)則;B、學(xué)習(xí)問(wèn)題看做為數(shù)據(jù)壓縮任務(wù);C、學(xué)習(xí)目標(biāo)為以最短編碼長(zhǎng)度描述訓(xùn)練數(shù)據(jù)模型;D、編碼位數(shù)僅為自身所需的編碼位數(shù);答案:D8、ROIPooling在那個(gè)模型中被第一次提出()A、fast-rcnnB、faster-rcnnC、mask-rcnnD、rcnn答案:A9、numpy中產(chǎn)生全1的矩陣使用的方法是A、zerosB、onesC、emptyD、arange答案:B10、數(shù)據(jù)清洗的方法不包括()A、缺失值處理B、噪聲數(shù)據(jù)清除C、一致性檢查D、重復(fù)數(shù)據(jù)記錄處理答案:D11、()是指在各個(gè)領(lǐng)域都比人類(lèi)要強(qiáng)的人工智能。A、超人工智能B、強(qiáng)人工智能C、弱人工智能D、人工智能答案:A12、下面哪個(gè)/些超參數(shù)的增加可能會(huì)造成隨機(jī)森林?jǐn)?shù)據(jù)過(guò)擬合?1樹(shù)的數(shù)量2樹(shù)的深度3學(xué)習(xí)速率A、只有1B、只有2C、只有3D、都正確答案:B13、關(guān)于專用人工智能與通用人工智能,下列表述不當(dāng)?shù)厥?)。A、人工智能地近期進(jìn)展主要集中在專用智能領(lǐng)域B、專用人工智能形成了人工智能領(lǐng)域地單點(diǎn)突破,在局部智能水平地單項(xiàng)測(cè)試中可以超越人類(lèi)智能C、通用人工智能可處理視覺(jué)、聽(tīng)覺(jué)、判斷、推理、學(xué)習(xí)、思考、規(guī)劃、設(shè)計(jì)等各類(lèi)問(wèn)題D、真正意義上完備地人工智能系統(tǒng)應(yīng)該是一個(gè)專用地智能系統(tǒng)答案:D14、操作系統(tǒng)主要是對(duì)計(jì)算機(jī)系統(tǒng)的全部()進(jìn)行管理,以方便用戶、提高計(jì)算機(jī)使用效率的一種系統(tǒng)軟件。A、應(yīng)用軟件B、系統(tǒng)軟硬件C、資源D、設(shè)備答案:C15、HUAWEIHiAI平臺(tái)中的人臉檢測(cè)是屬于哪個(gè)模塊?A、HiAIEngineB、HiAIFrameworkC、HiAIFoundationD、HiAIService答案:A16、梯度下降算法的正確步驟是什么?a.計(jì)算預(yù)測(cè)值和真實(shí)值之間的誤差b.重復(fù)迭代,直至得到網(wǎng)絡(luò)權(quán)重的最佳值c.把輸入傳入網(wǎng)絡(luò),得到輸出值d.用隨機(jī)值初始化權(quán)重和偏差e.對(duì)每一個(gè)產(chǎn)生誤差的神經(jīng)元,調(diào)整相應(yīng)的(權(quán)重)值以減小誤差()A、abcdeB、edcbaC、cbaedD、dcaeb答案:D17、以下說(shuō)法正確的是()A、神經(jīng)網(wǎng)絡(luò)可以用于多分類(lèi)問(wèn)題B、決策樹(shù)只能用于二分類(lèi)問(wèn)題C、監(jiān)督學(xué)習(xí)與無(wú)監(jiān)督學(xué)習(xí)的主要區(qū)別是,監(jiān)督學(xué)習(xí)的訓(xùn)練樣本無(wú)標(biāo)簽D、分類(lèi)任務(wù)的評(píng)價(jià)指標(biāo)精確率和準(zhǔn)確率是同一個(gè)概念答案:A18、以下不是點(diǎn)估計(jì)中統(tǒng)計(jì)量標(biāo)準(zhǔn)的是()A、無(wú)偏性B、一致的C、有效的D、隨機(jī)性答案:D19、隨著集成中個(gè)體分類(lèi)器(相互獨(dú)立)數(shù)目T的增大,集成的錯(cuò)誤率將呈()下降,最終趨向于零A、指數(shù)級(jí)B、對(duì)數(shù)級(jí)C、線性級(jí)D、平方級(jí)答案:A20、以下哪個(gè)不是語(yǔ)音識(shí)別技術(shù)的應(yīng)用場(chǎng)景()A、入侵檢測(cè)B、語(yǔ)音合成C、語(yǔ)音翻譯D、智能客服答案:A21、可以對(duì)Pytorch框架進(jìn)行網(wǎng)絡(luò)結(jié)構(gòu)等數(shù)據(jù)可視化的工具是A、VisdomB、FlaskC、VueD、以上選項(xiàng)均不正確答案:A22、程序設(shè)計(jì)過(guò)程中的三要素是()A、算法、數(shù)據(jù)結(jié)構(gòu)和程序設(shè)計(jì)方法學(xué)B、數(shù)據(jù)、算法和數(shù)據(jù)結(jié)構(gòu)C、輸入、操作處理和輸出D、數(shù)據(jù)、數(shù)據(jù)結(jié)構(gòu)和處理答案:A23、下列數(shù)據(jù)類(lèi)型中,不支持分片操作的是()。A、字符串B、列表C、字典D、元組答案:C24、過(guò)擬合會(huì)出現(xiàn)高()問(wèn)題A、標(biāo)準(zhǔn)差B、方差C、偏差D、平方差答案:B25、物聯(lián)網(wǎng)為人工智能的()提供了基礎(chǔ)設(shè)施環(huán)境,同時(shí)帶來(lái)了多維度、及時(shí)全面的海量訓(xùn)練數(shù)據(jù)。A、應(yīng)用層B、感知層C、數(shù)據(jù)層D、以上都是答案:B26、()的本質(zhì)是一種逼近離散值目標(biāo)函數(shù)的過(guò)程。A、基于實(shí)例學(xué)習(xí)B、概念學(xué)習(xí)C、決策樹(shù)學(xué)習(xí)D、人工神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)答案:C27、下列哪項(xiàng)不是構(gòu)建知識(shí)圖譜用到的主要技術(shù)()A、詞性標(biāo)注B、實(shí)體鏈接C、關(guān)系抽取D、命名實(shí)體識(shí)別答案:A28、關(guān)于貝葉斯網(wǎng)的學(xué)習(xí)描述錯(cuò)誤的為(___)A、貝葉斯的學(xué)習(xí)過(guò)程為對(duì)訓(xùn)練樣本計(jì)數(shù);B、估計(jì)出每個(gè)結(jié)點(diǎn)的條件概率;C、網(wǎng)絡(luò)結(jié)構(gòu)為已知;D、評(píng)分搜索為求解的常用辦法;答案:C29、從數(shù)1,2,3,4中任取一個(gè)數(shù),記為X,再?gòu)?,2,…,X中任取一個(gè)數(shù),記為Y,則P{Y=2}=______A、11/48B、1212122022年1月4日C、13/48D、1212122022年7月24日答案:C30、人臉檢測(cè)服務(wù)在測(cè)試圖像中沒(méi)有人臉時(shí)會(huì)報(bào)錯(cuò)。A、TRUEB、FALSE答案:B31、K折法是下列哪個(gè)函數(shù)?A、RepeatedKFoldB、KFoldC、LeaveOneOut答案:B32、下列選項(xiàng)中,是合頁(yè)損失函數(shù)的是()。A、expyfxB、1-yfx]_+C、log1+exp-yfxD、exp-yfx答案:B33、有關(guān)一般卷積神經(jīng)網(wǎng)絡(luò)的組成,下面哪種說(shuō)法是正確的?A、卷積神經(jīng)網(wǎng)絡(luò)的層次結(jié)構(gòu)依次是由輸入層、卷積層、激活層、池化層和全連接層組成。B、卷積神經(jīng)網(wǎng)絡(luò)的層次結(jié)構(gòu)依次是由輸入層、激活層、卷積層、池化層和全連接層組成。C、卷積神經(jīng)網(wǎng)絡(luò)的層次結(jié)構(gòu)依次是由輸入層、卷積層、池化層、激活層和全連接層組成。D、卷積神經(jīng)網(wǎng)絡(luò)的層次結(jié)構(gòu)依次是由輸入層、池化層、卷積層、激活層和全連接層組成。答案:A34、在統(tǒng)計(jì)語(yǔ)言模型中,通常以概率的形式描述任意語(yǔ)句的可能性,利用最大相似度估計(jì)進(jìn)行度量,對(duì)于一些低頻詞,無(wú)論如何擴(kuò)大訓(xùn)練數(shù)據(jù),出現(xiàn)的頻度仍然很低,下列哪種方法可以解決這一問(wèn)題A、一元切分B、一元文法C、數(shù)據(jù)平滑D、N元文法答案:C35、擲2n+1次硬幣,正面向上次數(shù)多于反面向上次數(shù)的概率是()。A、0.5B、n/2n+1C、n-1/2n+1D、n+1/2n+1答案:A36、數(shù)據(jù)分析與數(shù)據(jù)可視化密不可分,在python中,哪個(gè)是常用數(shù)據(jù)可視化工具。A、pytorchB、numpyC、pyechartsD、json答案:C37、剪枝方法和程度對(duì)決策樹(shù)泛化性能的影響相當(dāng)顯著,有實(shí)驗(yàn)研究表明,在數(shù)據(jù)帶有噪聲時(shí)通過(guò)剪枝甚至可將決策樹(shù)的泛化性能提高()。A、0.2B、0.25C、30%D、$0.35答案:B38、一張RGB彩色圖片存儲(chǔ)在計(jì)算機(jī)中通常不含以下哪一項(xiàng):A、黃色通道B、藍(lán)色通道C、綠色通道D、紅色通道答案:A39、特征是描述樣本的特性的維度,關(guān)于其在傳統(tǒng)機(jī)器學(xué)習(xí)和深度學(xué)習(xí)的可解釋性,以下說(shuō)法正確的是:A、特征在傳統(tǒng)機(jī)器學(xué)習(xí)可解釋性強(qiáng),而在深度學(xué)習(xí)可解釋性弱B、特征在傳統(tǒng)機(jī)器學(xué)習(xí)可解釋性弱,而在深度學(xué)習(xí)可解釋性強(qiáng)C、特征在傳統(tǒng)機(jī)器學(xué)習(xí)和深度學(xué)習(xí)可解釋性均弱D、特征在傳統(tǒng)機(jī)器學(xué)習(xí)和深度學(xué)習(xí)可解釋性均強(qiáng)答案:A40、以下關(guān)于降維,表述錯(cuò)誤的是:()A、降維過(guò)程中可以保留原始數(shù)據(jù)的所有信息。B、多維縮放的目標(biāo)是要保證降維后樣本之間的距離不變。C、線性降維方法目標(biāo)是要保證降維到的超平面能更好的表示原始數(shù)據(jù)。D、核線性降維方法目標(biāo)是通過(guò)核函數(shù)和核方法來(lái)避免采樣空間投影到高維空間再降維之后的低維結(jié)構(gòu)丟失。答案:A41、對(duì)于神經(jīng)網(wǎng)絡(luò)的說(shuō)法,下面正確的是()A、增加神經(jīng)網(wǎng)絡(luò)層數(shù),可能會(huì)增加測(cè)試數(shù)據(jù)集的分類(lèi)錯(cuò)誤率B、減少神經(jīng)網(wǎng)絡(luò)層數(shù),總是能減小測(cè)試數(shù)據(jù)集的分類(lèi)錯(cuò)誤率C、增加神經(jīng)網(wǎng)絡(luò)層數(shù),總是能減小訓(xùn)練數(shù)據(jù)集的分類(lèi)錯(cuò)誤率D、1、2都對(duì)答案:A42、由于變量在使用之前不需要類(lèi)型聲明而且不允許隱式類(lèi)型轉(zhuǎn)換,因此python是一門(mén)()、()的語(yǔ)言A、靜態(tài)弱類(lèi)型B、動(dòng)態(tài)弱類(lèi)型C、動(dòng)態(tài)強(qiáng)類(lèi)型D、靜態(tài)強(qiáng)類(lèi)型答案:C43、在不考慮標(biāo)記樣本時(shí),支持向量機(jī)試圖找到(___)間隔劃分超平面A、最大B、最小C、最長(zhǎng)D、最短答案:A44、()算法是一種最有影響的挖掘關(guān)聯(lián)規(guī)則頻繁項(xiàng)目集的算法A、FP-growthB、EClatC、聚類(lèi)D、Apdori答案:D45、多分類(lèi)學(xué)習(xí)中,最經(jīng)典的三種拆分策略不包括()A、一對(duì)一B、一對(duì)其余C、一對(duì)多D、多對(duì)多答案:C46、下列神經(jīng)網(wǎng)絡(luò)特點(diǎn)描述錯(cuò)誤的是(___)A、適應(yīng)性B、由簡(jiǎn)單單元組成C、廣泛并行互連的網(wǎng)絡(luò)D、線性特性答案:D47、池化層一般接在哪種網(wǎng)絡(luò)層之后A、輸入層B、輸出層C、卷積層D、全連接層答案:C48、深度學(xué)習(xí)中神經(jīng)網(wǎng)絡(luò)類(lèi)型很多,以下神經(jīng)網(wǎng)絡(luò)信息是單向傳播的是:A、LSTMB、卷積神經(jīng)網(wǎng)絡(luò)C、循環(huán)神經(jīng)網(wǎng)絡(luò)D、GRU答案:B49、從全稱判斷推導(dǎo)出特稱判斷或單稱判斷的過(guò)程,即由一般性知識(shí)推出適合于某一具體情況的結(jié)論的推理是A、默認(rèn)推理B、歸結(jié)推理C、演繹推理D、單調(diào)推理答案:C50、圖像識(shí)別任務(wù)可以分為三個(gè)層次,根據(jù)處理內(nèi)容的抽象性,從低到高依次為A、圖像分析,圖像處理,圖像理解B、圖像分析,圖像理解,圖像處理C、圖像處理,圖像分析,圖像理解D、圖像理解,圖像分析,圖像處理答案:C51、預(yù)測(cè)分析過(guò)程包括:數(shù)據(jù)的準(zhǔn)備、預(yù)測(cè)模型開(kāi)發(fā)、模型驗(yàn)收和評(píng)估、使用PMML實(shí)現(xiàn)大數(shù)據(jù)預(yù)測(cè)的有效部署。()是指對(duì)數(shù)據(jù)的采集和整理A、數(shù)據(jù)的準(zhǔn)備B、預(yù)測(cè)模型開(kāi)發(fā)C、模型驗(yàn)收D、評(píng)估答案:A52、下面哪一項(xiàng)不屬于卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)A、LeNetB、ResNetC、VGGNetD、RNN答案:D53、機(jī)器學(xué)習(xí)的算法中,以下哪個(gè)不是無(wú)監(jiān)督學(xué)習(xí)?A、GMMB、XgboostC、聚類(lèi)D、關(guān)聯(lián)規(guī)則答案:B54、關(guān)于聚類(lèi)說(shuō)法錯(cuò)誤的是()A、在無(wú)監(jiān)督學(xué)習(xí)任務(wù)中,研究最多、應(yīng)用最廣的是聚類(lèi)B、聚類(lèi)可作為一個(gè)單獨(dú)過(guò)程,用于找尋數(shù)據(jù)內(nèi)在的分布結(jié)構(gòu),但不能作為其他學(xué)習(xí)任務(wù)的前驅(qū)過(guò)程C、聚類(lèi)分析的目標(biāo)是組內(nèi)的對(duì)象之間是相似的,不同組中的對(duì)象是不同的D、組內(nèi)的相似性越大,組間差別越大,聚類(lèi)就越好答案:B55、早期圖像識(shí)別技術(shù)中存在的主要問(wèn)題是()。A、全局特征丟掉了圖像細(xì)節(jié)B、提取不到主要特征C、存儲(chǔ)效率低下D、太多的錯(cuò)誤匹配答案:A56、如果在內(nèi)存中采用鏈?zhǔn)奖4婢€性表,則元素之間的邏輯關(guān)系通過(guò)()A、元素在內(nèi)存中的相對(duì)位置表示邏輯次序B、保存在元素中的指針表示先后次序C、設(shè)立單獨(dú)的區(qū)域存儲(chǔ)元素之間的邏輯次序D、元素本身的關(guān)鍵字來(lái)表示邏輯次序答案:B57、在IBMSPSS中,將評(píng)判準(zhǔn)則和評(píng)判方法抽象為數(shù)學(xué)計(jì)算方法,就是()的內(nèi)容。A、數(shù)據(jù)挖掘B、統(tǒng)計(jì)分析C、數(shù)理統(tǒng)計(jì)D、優(yōu)化技術(shù)答案:D58、CascadeRCNN中使用了()個(gè)BBOXHead完成目標(biāo)檢測(cè)A、1B、2C、3D、$4答案:C59、范數(shù)是將向量映射到()的函數(shù)。A、正值B、負(fù)值C、非負(fù)值D、非正值答案:C60、決策樹(shù)的生成是一個(gè)(___)過(guò)程。A、聚類(lèi)B、回歸C、遞歸D、KNN答案:C61、無(wú)法適應(yīng)業(yè)務(wù)發(fā)展要求或應(yīng)當(dāng)廢止的數(shù)據(jù)資產(chǎn)標(biāo)準(zhǔn),應(yīng)及時(shí)()。A、停用B、新增C、變更D、停用和退出答案:D62、將訓(xùn)練集隨機(jī)等分為k份,選擇其中的1份為測(cè)試集,另外k-1份作為訓(xùn)練集進(jìn)行訓(xùn)練,進(jìn)而可以進(jìn)行k次訓(xùn)練和測(cè)試,最后返回這k個(gè)測(cè)試結(jié)果的均值,這種評(píng)估模型的方法叫做(____)。A、留一交叉驗(yàn)證B、留出法C、自助法D、k折交叉驗(yàn)證答案:D63、下列不屬于人工智能學(xué)派的是A、符號(hào)主義B、行為主義C、機(jī)會(huì)主義D、連接主義答案:C64、欠擬合通常是由于(___)而造成的。A、權(quán)值學(xué)習(xí)迭代次數(shù)足夠多B、學(xué)習(xí)能力低下C、訓(xùn)練集過(guò)多模型復(fù)雜D、數(shù)據(jù)有噪聲答案:B65、在訓(xùn)練集上每學(xué)到一條規(guī)則,就將該規(guī)則覆蓋的訓(xùn)練樣例去除,然后以剩下的訓(xùn)練樣例組成訓(xùn)練集重復(fù)上述過(guò)程的方法稱為(___)A、缺省規(guī)則B、序貫覆蓋C、不放回學(xué)習(xí)D、一階規(guī)則答案:B66、以下關(guān)于集成的描述,錯(cuò)誤的是(___)。A、集成學(xué)習(xí)通過(guò)構(gòu)建并結(jié)合多個(gè)學(xué)習(xí)器來(lái)完成學(xué)習(xí)任務(wù),也稱為多分類(lèi)器系統(tǒng)、基于委員會(huì)的學(xué)習(xí)等B、集成中只包含同種類(lèi)型的個(gè)體學(xué)習(xí)器,如“決策樹(shù)集成”,“神經(jīng)網(wǎng)絡(luò)集成”等,這樣的集成是“同質(zhì)”的C、集成中同時(shí)包含多種類(lèi)型的個(gè)體學(xué)習(xí)器,這樣的集成是“異質(zhì)”的,異質(zhì)集成的個(gè)體學(xué)習(xí)器一般稱為基學(xué)習(xí)器D、隨著集成中個(gè)體分類(lèi)器(相互獨(dú)立)數(shù)目T的增大,集成的錯(cuò)誤率將指數(shù)級(jí)下降,最終趨向于零答案:C67、留出法直接將數(shù)據(jù)集劃分為()個(gè)互斥的集合A、一B、二C、三D、四答案:B68、(___)是在一個(gè)數(shù)據(jù)集上對(duì)多個(gè)算法進(jìn)行比較。A、t檢驗(yàn)B、交叉驗(yàn)證t檢驗(yàn)C、Friedman檢驗(yàn)D、McNemar檢驗(yàn)答案:C69、留出法直接將數(shù)據(jù)集劃分為(___)個(gè)互斥的集合。A、一B、二C、三D、四答案:B70、清華大學(xué)首次提出“類(lèi)腦計(jì)算完備性”概念以及軟硬件去耦合的類(lèi)腦計(jì)算系統(tǒng)層次結(jié)構(gòu),通過(guò)()與()證明該類(lèi)系統(tǒng)的硬件完備性與編譯可行性。A、理論論證、原型實(shí)踐B、假設(shè)檢驗(yàn)、邏輯推理C、模式識(shí)別、在線驗(yàn)證D、行為校驗(yàn)、合理分析答案:A71、下列哪個(gè)if語(yǔ)句是正確的?A、ifa>=22:&B、&ifa>=22&C、&ifa=>22&D、&ifa>=22)答案:A72、2018年“全球十大突破性技術(shù)”,對(duì)抗性神經(jīng)網(wǎng)絡(luò)簡(jiǎn)稱為()A、GANB、LSTMC、CNND、GRU答案:A73、電力專用縱向加密認(rèn)證裝置是嵌入式設(shè)備,主要模塊包括非Intel指令CPU、千/百兆網(wǎng)絡(luò)接口、雙電源模塊、()等等A、GPS芯片B、GPRS芯片C、電力專用加密算法芯片D、天線答案:C74、對(duì)于一個(gè)圖像識(shí)別問(wèn)題,下面哪種神經(jīng)網(wǎng)絡(luò)可以更好地解決這個(gè)問(wèn)題?()A、循環(huán)神經(jīng)網(wǎng)絡(luò)B、自動(dòng)編碼機(jī)C、多層感知機(jī)D、卷積神經(jīng)網(wǎng)絡(luò)答案:D75、半監(jiān)督學(xué)習(xí)包括。A、主動(dòng)學(xué)習(xí)B、回歸學(xué)習(xí)C、聚類(lèi)學(xué)習(xí)D、直推學(xué)習(xí)答案:D76、前饋型神經(jīng)網(wǎng)絡(luò)的中各個(gè)層之間是()的,反饋型神經(jīng)網(wǎng)絡(luò)中各個(gè)層之間是()的。A、有環(huán)B、有環(huán)C、有環(huán)D、無(wú)環(huán)E、無(wú)環(huán)F、有環(huán)答案:C77、視覺(jué)編碼的前提是分析并了解目標(biāo)用戶的,盡量降低目標(biāo)用戶的A、視覺(jué)感知特征;感知障礙B、視覺(jué)感知特征;感知時(shí)間C、視覺(jué)感知習(xí)慣;感知障礙D、視覺(jué)感知習(xí)慣;感知時(shí)間答案:A78、在自動(dòng)駕駛中,AI需要不斷地通過(guò)路面信息來(lái)調(diào)整開(kāi)車(chē)的決策,這種處理模式適合用()來(lái)訓(xùn)練出合理的策略。A、監(jiān)督學(xué)習(xí)B、非監(jiān)督學(xué)習(xí)C、強(qiáng)化學(xué)習(xí)D、弱化學(xué)習(xí)答案:C79、一組數(shù)據(jù)相加后除以數(shù)據(jù)個(gè)數(shù)得到的值叫做()。A、最大值B、平均值C、中位數(shù)D、眾數(shù)答案:B80、循環(huán)神經(jīng)網(wǎng)絡(luò)優(yōu)勢(shì)在于()A、對(duì)序列的每個(gè)元素進(jìn)行相同的計(jì)算,輸出取決于之前的數(shù)據(jù)狀態(tài)B、對(duì)序列的每個(gè)元素進(jìn)行不同的計(jì)算,輸出取決于之后的數(shù)據(jù)狀態(tài)C、對(duì)序列的每個(gè)元素進(jìn)行相同的計(jì)算,輸出取決于之后的數(shù)據(jù)狀態(tài)D、以上都不對(duì)答案:A81、linux操作系統(tǒng)中,文件權(quán)限-rwxr-xr-x,對(duì)文件擁有者而言,具有()權(quán)限。A、可讀,可寫(xiě)入,可執(zhí)行B、可讀C、可讀,可執(zhí)行D、可寫(xiě)入答案:A82、Kvps={‘1’:1,’2’:2}theCopy=kvpskvps[‘1’]=5sum=kvps[‘1’]+theCopy[‘1’]Printsum上述代碼的結(jié)果是A、1B、2C、10D、$7答案:C83、表達(dá)式3andnot5的值為_(kāi)______。A、FALSEB、3C、TRUED、$2答案:A84、關(guān)于Boltzmann描述錯(cuò)誤的是(___)A、基于能量的模型;B、優(yōu)化目標(biāo)函數(shù)為最小化能力函數(shù);C、分為顯層和隱層;D、神經(jīng)元都是數(shù)值型;答案:D85、下列哪一項(xiàng)屬于特征學(xué)習(xí)算法(representationlearningalgorithm)?()A、K近鄰算法B、隨機(jī)森林C、神經(jīng)網(wǎng)絡(luò)D、都不屬于答案:C86、語(yǔ)音是一種典型的()數(shù)據(jù)。A、無(wú)結(jié)構(gòu)無(wú)序列B、有結(jié)構(gòu)序列C、無(wú)結(jié)構(gòu)序列D、有結(jié)構(gòu)無(wú)序列答案:C87、考慮以下問(wèn)題:假設(shè)我們有一個(gè)5層的神經(jīng)網(wǎng)絡(luò),這個(gè)神經(jīng)網(wǎng)絡(luò)在使用一個(gè)4GB顯存顯卡時(shí)需要花費(fèi)3個(gè)小時(shí)來(lái)完成訓(xùn)練。而在測(cè)試過(guò)程中,單個(gè)數(shù)據(jù)需要花費(fèi)2秒的時(shí)間。如果我們現(xiàn)在把架構(gòu)變換一下,當(dāng)評(píng)分是0.2和0.3時(shí),分別在第2層和第4層添加Dropout,那么新架構(gòu)的測(cè)試所用時(shí)間會(huì)變?yōu)槎嗌伲緼、少于2sB、大于2sC、仍是2sD、說(shuō)不準(zhǔn)答案:C88、下列樸素貝葉斯估計(jì)描述錯(cuò)誤的是A、采用屬性條件獨(dú)立性假設(shè)B、假設(shè)屬性之間相互獨(dú)立C、為了避免條件概率是所以屬性上的聯(lián)合概率D、假設(shè)屬性之間是相關(guān)的答案:D89、關(guān)于線性回歸的描述,以下說(shuō)法正確的有()A、基本假設(shè)包括隨機(jī)干擾項(xiàng)是均值為0,方差為1的標(biāo)準(zhǔn)正態(tài)分布B、基本假設(shè)包括隨機(jī)干擾項(xiàng)是均值為0的同方差正態(tài)分布C、多重共線性會(huì)使得參數(shù)估計(jì)值方差減小D

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論