人工智能基礎(chǔ)(習(xí)題卷11)_第1頁(yè)
人工智能基礎(chǔ)(習(xí)題卷11)_第2頁(yè)
人工智能基礎(chǔ)(習(xí)題卷11)_第3頁(yè)
人工智能基礎(chǔ)(習(xí)題卷11)_第4頁(yè)
人工智能基礎(chǔ)(習(xí)題卷11)_第5頁(yè)
已閱讀5頁(yè),還剩19頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶(hù)提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

試卷科目:人工智能基礎(chǔ)人工智能基礎(chǔ)(習(xí)題卷11)PAGE"pagenumber"pagenumber/SECTIONPAGES"numberofpages"numberofpages人工智能基礎(chǔ)第1部分:?jiǎn)雾?xiàng)選擇題,共53題,每題只有一個(gè)正確答案,多選或少選均不得分。[單選題]1.在回歸模型中,下列哪一項(xiàng)在權(quán)衡欠擬合(under-fitting)和過(guò)擬合(over-fitting)中影響最大?A)多項(xiàng)式階數(shù)B)更新權(quán)重w時(shí),使用的是矩陣求逆還是梯度下降C)使用常數(shù)項(xiàng)答案:A解析:[單選題]2.時(shí)間序列分析方法的選擇,主要取決于需要解決的問(wèn)題,以及時(shí)間序列的()。A)特點(diǎn)B)離散度C)聚合度D)線性關(guān)系答案:A解析:[單選題]3.梯度下降法(gradientdescent)以單個(gè)樣本的()對(duì)權(quán)重進(jìn)行調(diào)節(jié)A)均方誤差的梯度方向B)均方誤差的負(fù)梯度方向C)協(xié)方差的梯度方向D)協(xié)方差的負(fù)梯度方向答案:B解析:梯度下降法(gradientdescent),以單個(gè)樣本的均方誤差的負(fù)梯度方向?qū)?quán)重進(jìn)行調(diào)節(jié)。[單選題]4.CNN不具有以下那個(gè)特性。A)局部連接B)權(quán)值共享C)空間或時(shí)間上的下采樣D)不定長(zhǎng)輸入答案:D解析:不定長(zhǎng)輸入數(shù)據(jù)特征為RNN循環(huán)神經(jīng)網(wǎng)絡(luò)特征[單選題]5.以下哪一個(gè)步驟不是設(shè)計(jì)二分類(lèi)器的步驟。()A)數(shù)據(jù)采集B)訓(xùn)練數(shù)據(jù),求解參數(shù)C)建立函數(shù),觀察圖像D)測(cè)試數(shù)據(jù),驗(yàn)證參數(shù)答案:A解析:[單選題]6.()不是神經(jīng)網(wǎng)絡(luò)的代表。A)卷積神經(jīng)網(wǎng)絡(luò)B)遞歸神經(jīng)網(wǎng)絡(luò)C)殘差網(wǎng)絡(luò)D)XGBooST算法答案:D解析:XGBooST是Boosting算法的代表。[單選題]7.Dropout是一種在深度學(xué)習(xí)環(huán)境中應(yīng)用的正規(guī)化手段。它是這樣運(yùn)作的:在一次循環(huán)中我們先隨機(jī)選擇神經(jīng)層中的一些單元并將其臨時(shí)隱藏,然后再進(jìn)行該次循環(huán)中神經(jīng)網(wǎng)絡(luò)的訓(xùn)練和優(yōu)化過(guò)程。在下一次循環(huán)中,我們又將隱藏另外一些神經(jīng)元,如此直至訓(xùn)練結(jié)束。根據(jù)以上描述,Dropout技術(shù)在下列哪種神經(jīng)層中將無(wú)法發(fā)揮顯著優(yōu)勢(shì)?A)仿射層B)卷積層C)RNN層D)均不對(duì)答案:C解析:[單選題]8.一組數(shù)據(jù)中出現(xiàn)最多的變量值叫做()。A)最大值B)平均值C)中位數(shù)D)眾數(shù)答案:D解析:[單選題]9.以下那一項(xiàng)是無(wú)人飛行器的英文縮寫(xiě)()。A)UAUB)ATCC)AUVD)UAV答案:D解析:[單選題]10.六軸旋翼無(wú)人機(jī)的配漿為24~26英寸,那么,它的軸距約為()毫米。A)1100mmB)1200mmC)1300mmD)1400mm答案:B解析:[單選題]11.給定一個(gè)長(zhǎng)度為n的不完整單詞序列,我們希望預(yù)測(cè)下一個(gè)字母是什么。比如輸入是?predictio?(9個(gè)字母組成),希望預(yù)測(cè)第十個(gè)字母是什么。下面哪種神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)適用于解決這個(gè)工作?A)循環(huán)神經(jīng)網(wǎng)絡(luò)B)全連接神經(jīng)網(wǎng)絡(luò)C)受限波爾茲曼機(jī)D)卷積神經(jīng)網(wǎng)絡(luò)答案:A解析:0[單選題]12.圖像、圖形識(shí)別系統(tǒng)屬于的技術(shù)類(lèi)型是()A)計(jì)算機(jī)視覺(jué)B)機(jī)器人視覺(jué)C)語(yǔ)言識(shí)別D)神經(jīng)網(wǎng)絡(luò)答案:A解析:[單選題]13.主機(jī)A()與主機(jī)B()網(wǎng)絡(luò)相通能夠正常通信,從主機(jī)A到主機(jī)B,依次經(jīng)過(guò)縱向加密認(rèn)證裝置C()和縱向加密認(rèn)證裝置D()。縱向加密認(rèn)證裝置已配置相應(yīng)的隧道和加密策略。隧道建立成功后,主機(jī)A向主機(jī)B發(fā)送一條報(bào)文。當(dāng)報(bào)文經(jīng)過(guò)裝置C后,IP報(bào)文的目的地址為()。A)B)C)D)答案:D解析:[單選題]14.Prolog語(yǔ)言的三種基本語(yǔ)句是()。A)順序;循環(huán);分支B)陳述;詢(xún)問(wèn);感嘆C)事實(shí);規(guī)則;詢(xún)問(wèn)D)肯定;疑問(wèn);感嘆答案:C解析:[單選題]15.卷積計(jì)算時(shí),卷積核矩陣各元素與所覆蓋圖像的對(duì)應(yīng)位置元素進(jìn)行什么操作?A)相加B)相減C)相乘D)相除答案:C解析:[單選題]16.激活函數(shù)中sigmoid函數(shù)的缺點(diǎn)是()A)計(jì)算量大B)稀疏激活性C)收斂速度快D)以上都是答案:A解析:[單選題]17.圖像灰度方差說(shuō)明了圖像的那種屬性()。A)平均灰度B)圖像對(duì)比度C)圖像整體亮度D)圖像細(xì)節(jié)答案:B解析:[單選題]18.以下兩種描述分別對(duì)應(yīng)哪兩種對(duì)分類(lèi)算法的評(píng)價(jià)標(biāo)準(zhǔn)?(2)描述有多少比例的小偷給警察抓了的標(biāo)準(zhǔn)。A)精確率B)召回率C)ROCD)AUC答案:B解析:[單選題]19.考慮某個(gè)具體問(wèn)題時(shí),你可能只有少量數(shù)據(jù)來(lái)解決這個(gè)問(wèn)題。不過(guò)幸運(yùn)的是你有一個(gè)類(lèi)似問(wèn)題已經(jīng)預(yù)先訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)??梢岳眠@個(gè)預(yù)先訓(xùn)練好的網(wǎng)絡(luò)的方法是()。A)把除了最后一層外所有的層都凍住,重新訓(xùn)練最后一層B)對(duì)新數(shù)據(jù)重新訓(xùn)練整個(gè)模型C)只對(duì)最后幾層進(jìn)行訓(xùn)練調(diào)參(fineD)對(duì)每一層模型進(jìn)行評(píng)估,選擇其中的少數(shù)來(lái)用答案:C解析:如果有個(gè)預(yù)先訓(xùn)練好的神經(jīng)網(wǎng)絡(luò),就相當(dāng)于網(wǎng)絡(luò)各參數(shù)有個(gè)很靠譜的先驗(yàn)代替隨機(jī)初始化。若新的少量數(shù)據(jù)來(lái)自先前訓(xùn)練數(shù)據(jù)(或者先前訓(xùn)練數(shù)據(jù)量很好地描述了數(shù)據(jù)分布,而新數(shù)據(jù)采樣自完全相同的分布),則凍結(jié)前面所有層而重新訓(xùn)練最后一層即可。但一般情況下,新數(shù)據(jù)分布跟先前訓(xùn)練集分布有所偏差,所以先驗(yàn)網(wǎng)絡(luò)不足以完全擬合新數(shù)據(jù)時(shí),可以?xún)鼋Y(jié)大部分前層網(wǎng)絡(luò),只對(duì)最后幾層進(jìn)行訓(xùn)練調(diào)參(finetune)。[單選題]20.數(shù)據(jù)預(yù)處理方法不包括()。A)數(shù)據(jù)清洗:去噪聲和無(wú)關(guān)數(shù)據(jù)B)數(shù)據(jù)集成:將多個(gè)數(shù)據(jù)源中的數(shù)據(jù)結(jié)合起來(lái)存在一個(gè)一致的數(shù)據(jù)存儲(chǔ)中C)數(shù)據(jù)變換:把原始數(shù)據(jù)轉(zhuǎn)換成為適合數(shù)據(jù)挖掘的形式D)數(shù)據(jù)轉(zhuǎn)化:把連續(xù)數(shù)據(jù)轉(zhuǎn)換為離散數(shù)據(jù)答案:D解析:數(shù)據(jù)轉(zhuǎn)化多為將字符型數(shù)據(jù)轉(zhuǎn)換為數(shù)值型數(shù)據(jù)。例如將性別[男,女]分別轉(zhuǎn)換為[0,l]。[單選題]21.一監(jiān)獄人臉識(shí)別準(zhǔn)入系統(tǒng)用來(lái)識(shí)別待進(jìn)入人員的身份,此系統(tǒng)識(shí)別獄警、小偷、送餐員、其他人員4種不同人員。下列學(xué)習(xí)方法最適合此種應(yīng)用需求的是().A)二分類(lèi)問(wèn)題B)層次聚類(lèi)問(wèn)題C)多分類(lèi)問(wèn)題D)回歸問(wèn)題答案:C解析:涉及4種人員類(lèi)別屬于多分類(lèi)問(wèn)題。[單選題]22.在《電力行業(yè)信息系統(tǒng)安全等級(jí)保護(hù)基本要求》生產(chǎn)控制類(lèi)信息系統(tǒng)第三級(jí)的介質(zhì)管理要求中,不當(dāng)?shù)淖龇ㄊ牵?)。A)應(yīng)建立生產(chǎn)控制大區(qū)移動(dòng)存儲(chǔ)介質(zhì)安全管理制度,嚴(yán)格限制移動(dòng)存儲(chǔ)介質(zhì)的使用B)應(yīng)對(duì)介質(zhì)在物理傳輸過(guò)程中的人員選擇、打包、交付等情況進(jìn)行控制C)應(yīng)對(duì)存儲(chǔ)介質(zhì)的使用過(guò)程、送出維修以及銷(xiāo)毀等進(jìn)行嚴(yán)格的管理,對(duì)帶出工作環(huán)境的存儲(chǔ)介質(zhì)進(jìn)行內(nèi)容加密和監(jiān)控管理D)對(duì)送出維修或銷(xiāo)毀的介質(zhì)應(yīng)首先清除介質(zhì)中的敏感數(shù)據(jù),對(duì)保密性較高的存儲(chǔ)介質(zhì)自行銷(xiāo)毀答案:D解析:[單選題]23.以下描述中錯(cuò)誤的是()。A)數(shù)據(jù)科學(xué)中的?數(shù)據(jù)?不僅僅是?數(shù)值?,也不等同于?數(shù)值?B)數(shù)據(jù)科學(xué)中的?計(jì)算?包括數(shù)據(jù)的查詢(xún)、挖掘、洞見(jiàn)等C)數(shù)據(jù)科學(xué)強(qiáng)調(diào)的是跨學(xué)科視角D)數(shù)據(jù)科學(xué)不包括?理論知識(shí)?,只包括?領(lǐng)域?qū)崉?wù)經(jīng)驗(yàn)?答案:D解析:[單選題]24.實(shí)踐中經(jīng)常遇到具有對(duì)稱(chēng)性的物體,對(duì)于這些物體,機(jī)器人按照其()可以有多種方式進(jìn)行抓取或放置,其結(jié)果是相同的。A)對(duì)稱(chēng)性角度B)旋轉(zhuǎn)性角度C)匹配性D)可靠性答案:B解析:[單選題]25.常用的圖像特征不包括A)顏色特征B)形狀特征C)紋理特征D)像素特征答案:D解析:[單選題]26.下列對(duì)于PCA說(shuō)法:①我們須在使用PCA前標(biāo)準(zhǔn)化數(shù)據(jù);②我們應(yīng)該選擇使得模型有最大variance的主成分;③我們應(yīng)該選擇使得模型有最小variance的主成分;④我們可以使用PCA在低維度上做數(shù)據(jù)可視化。正確的是()。A)①、②、④B)②、④C)③、④D)①、③答案:A解析:須在使用PCA前標(biāo)準(zhǔn)化數(shù)據(jù),應(yīng)選擇使得模型有最大variance的主成分,PCA在低維度上做數(shù)據(jù)可視化。[單選題]27.安徽省電力公司完成哪些人工智能典型場(chǎng)景的示范應(yīng)用工作?A)智慧數(shù)字審計(jì)、智慧配電房、智慧管廊B)電網(wǎng)技術(shù)監(jiān)督知識(shí)圖譜、智能財(cái)務(wù)機(jī)器人C)設(shè)備知識(shí)庫(kù)管理系統(tǒng)、智慧檔案庫(kù)房、智慧客服、智慧辦公、智能反竊電系統(tǒng)D)智慧后勤、智能基層減負(fù)答案:B解析:[單選題]28.池化層的作用不包括()A)解決卷積計(jì)算量過(guò)大的問(wèn)題B)降低特征圖的分辨率C)實(shí)現(xiàn)不同尺度特征的提取D)實(shí)現(xiàn)特征分類(lèi)答案:D解析:[單選題]29.深度學(xué)習(xí)中的?深度?是指A)計(jì)算機(jī)理解的深度B)中間神經(jīng)元網(wǎng)絡(luò)的層次很多C)計(jì)算機(jī)的求解更加精準(zhǔn)D)計(jì)算機(jī)對(duì)問(wèn)題的處理更加靈活答案:B解析:基礎(chǔ)概念[單選題]30.如果將數(shù)據(jù)科學(xué)比喻成?鷹?,那么,理論基礎(chǔ)、數(shù)據(jù)加工、數(shù)據(jù)計(jì)算、數(shù)據(jù)管理、數(shù)據(jù)分析、數(shù)據(jù)產(chǎn)品開(kāi)發(fā)相當(dāng)于?鷹?的()A)翅膀B)腳C)軀體D)頭腦答案:C解析:[單選題]31.配電物聯(lián)網(wǎng)是電力物聯(lián)網(wǎng)在()配電領(lǐng)域的具體應(yīng)用,應(yīng)遵循電力物聯(lián)網(wǎng)的總體要求。A)0.4kV及以下B)10kV及以下C)10kV及以上D)35kV及以下答案:B解析:[單選題]32.哪些文本分析技術(shù)可被用于名詞短語(yǔ)檢測(cè)、動(dòng)詞短語(yǔ)檢測(cè)、主語(yǔ)檢測(cè)和賓語(yǔ)檢測(cè)?A)詞性標(biāo)注(PartofSpeechTagging)B)SkipGram和N-Gram提取C)連續(xù)性詞袋(BagofWords)D)依存句法分析(DependencyParsing)和成分句法分析(ConstituencyParsing)答案:D解析:[單選題]33.輸入圖像已被轉(zhuǎn)換為大小為28×28的矩陣和大小為7×7的步幅為1的核心/濾波器。卷積矩陣的大小是多少?A)22X22B)21X21C)28X28D)7X7答案:A解析:[單選題]34.從網(wǎng)頁(yè)內(nèi)容中提取知識(shí)的知識(shí)發(fā)現(xiàn)對(duì)象是()A)數(shù)據(jù)庫(kù)B)WebC)數(shù)據(jù)倉(cāng)庫(kù)D)圖像和視頻數(shù)據(jù)答案:B解析:[單選題]35.傳感器的分辨力越高,表示傳感器()。A)遲滯越小B)重復(fù)性越好C)線性度越好D)能感知的輸入變化量越小答案:D解析:[單選題]36.表達(dá)式3|5的值為_(kāi)____。A)3B)7C)5D)1答案:B解析:[單選題]37.個(gè)棧的初始狀態(tài)為空?,F(xiàn)將元素1、2、3、4、5、A、B、C、D、E依次入棧,然后再依次出棧,則元素出棧的順序是A)12345ABCDEB)EDCBA54321C)54321EDCBAD)ABCDE12345答案:B解析:[單選題]38.自動(dòng)控制技術(shù)、通信技術(shù)、連同計(jì)算機(jī)技術(shù)和(),構(gòu)成信息技術(shù)的完整信息鏈。A)汽車(chē)制造技術(shù)B)建筑技術(shù)C)傳感技術(shù)D)監(jiān)測(cè)技術(shù)答案:C解析:[單選題]39.在物體檢測(cè)中,若采用業(yè)界通用的矩形框標(biāo)注規(guī)則,對(duì)圖片中的待檢測(cè)物體進(jìn)行標(biāo)注,則標(biāo)注框中的[a,b,c,d]分別代表?A)矩形框左上角橫坐標(biāo)、左上角縱坐標(biāo)、框?qū)挾?、框高度B)矩形框左下角橫坐標(biāo)、左下角縱坐標(biāo)、框?qū)挾?、框高度C)矩形框左上角橫坐標(biāo)、左上角縱坐標(biāo)、右下角橫坐標(biāo)、右下角縱坐標(biāo)D)矩形框左下角橫坐標(biāo)、左下角縱坐標(biāo)、右上角橫坐標(biāo)、右上角縱坐標(biāo)答案:A解析:[單選題]40.下面哪一句話(huà)是正確的()A)人工智能就是機(jī)器學(xué)習(xí)B)機(jī)器學(xué)習(xí)就是深度學(xué)習(xí)C)人工智能就是深度學(xué)習(xí)D)深度學(xué)習(xí)是一種機(jī)器學(xué)習(xí)的方法答案:D解析:[單選題]41.()常做為CNN網(wǎng)絡(luò)的最后一層。A)卷積層B)池化層C)全連接層D)歸一化層答案:C解析:全連接層常做為CNN網(wǎng)絡(luò)的最后一層。[單選題]42.下列哪項(xiàng)不屬于知識(shí)圖譜的分布式表示方法()A)word2vecB)TransDC)TransHD)TransE答案:A解析:word2vec屬于文字的向量表示。[單選題]43.LSTM是一種什么網(wǎng)絡(luò)?A)卷積神經(jīng)網(wǎng)B)前饋神經(jīng)網(wǎng)C)循環(huán)神經(jīng)網(wǎng)D)孿生網(wǎng)絡(luò)答案:C解析:LSTM是一種循環(huán)神經(jīng)網(wǎng)絡(luò)[單選題]44.?大數(shù)據(jù)?一詞從()年提出來(lái)的A)2008B)2009C)2010D)2011答案:B解析:[單選題]45.()側(cè)重于將已經(jīng)學(xué)習(xí)過(guò)的知識(shí)應(yīng)用到新的問(wèn)題中。A)分類(lèi)學(xué)習(xí)B)統(tǒng)計(jì)學(xué)習(xí)C)遷移學(xué)習(xí)D)強(qiáng)化學(xué)習(xí)答案:C解析:[單選題]46.RPA技術(shù)與AI技術(shù)的關(guān)系是()。A)RPA技術(shù)屬于AI技術(shù)B)AI技術(shù)屬于RPA技術(shù)C)二者相互配合共同完成任務(wù)D)RPA技術(shù)與AI技術(shù)沒(méi)有交集答案:C解析:[單選題]47.dic1={'A':1,'B':2,'C':3,'D':4}foriindic1:print(i)請(qǐng)問(wèn)程序運(yùn)行結(jié)果是多少?A)1234B)ABCDC)A:10B:20C:30D:40D)'A':10'B':20'C':30'D':40答案:B解析:[單選題]48.語(yǔ)音合成系統(tǒng)中,文本分析的主要功能不包括()。A)文字含義B)認(rèn)識(shí)文字C)如何發(fā)音D)分辨詞、短語(yǔ)和句子答案:B解析:[單選題]49.5>=3or2>=3的結(jié)果是A)TureB)trueC)TrueD)ture答案:C解析:[單選題]50.數(shù)據(jù)科學(xué)基本原則中,?基于數(shù)據(jù)的智能?的主要特點(diǎn)是()。A)數(shù)據(jù)簡(jiǎn)單、但算法簡(jiǎn)單B)數(shù)據(jù)復(fù)雜、但算法簡(jiǎn)單C)數(shù)據(jù)簡(jiǎn)單、但算法復(fù)雜D)數(shù)據(jù)復(fù)雜、但算法復(fù)雜答案:B解析:數(shù)據(jù)科學(xué)對(duì)?智能的實(shí)現(xiàn)方式?有了新的認(rèn)識(shí)--從?基于算法的智能?到?基于數(shù)據(jù)的智能?過(guò)渡。?基于數(shù)據(jù)的智能?的重要特點(diǎn)是?數(shù)據(jù)復(fù)雜,但算法簡(jiǎn)單?。第2部分:多項(xiàng)選擇題,共18題,每題至少兩個(gè)正確答案,多選或少選均不得分。[多選題]51.直方圖修正法包括()。A)直方圖統(tǒng)計(jì)B)直方圖均衡C)直方圖過(guò)濾D)直方圖規(guī)定化答案:BD解析:直方圖統(tǒng)計(jì)是對(duì)圖像特征值的統(tǒng)計(jì);直方圖過(guò)濾屬于圖像處理技術(shù)。[多選題]52.下列選項(xiàng)屬于靜態(tài)圖缺點(diǎn)的是()A)代碼編寫(xiě)較為簡(jiǎn)潔和方便B)計(jì)算圖構(gòu)建很長(zhǎng)時(shí)間后才提示錯(cuò)誤C)無(wú)法使用pdb或print語(yǔ)句調(diào)試執(zhí)行D)控制流與Python不同,造成一定的學(xué)習(xí)門(mén)檻答案:BCD解析:[多選題]53.下列屬于CNN關(guān)鍵層的是()。A)輸入層B)卷積層C)激活層D)池化層答案:ABCD解析:CNN關(guān)鍵層有:①輸入層,對(duì)數(shù)據(jù)去均值,做dataaugmentati。n等工作;②卷積層,局部關(guān)聯(lián)抽取feature;③激活層,非線性變化;④池化層,下采樣;⑤全連接層,增加模型非線性;⑥高速通道,快速連接;⑦BN層,緩解梯度彌散。[多選題]54.設(shè)隨機(jī)變量X,Y獨(dú)立同分布,且X的分布函數(shù)為F(x),則Z=max{X,Y}的分布函數(shù)不可能是()。A)F(x)^2B)F(x)F(y)C)1-[1-F(x)]^2D)[1-F(x)][1-F(y)]答案:BCD解析:[多選題]55.實(shí)時(shí)計(jì)算類(lèi)應(yīng)用主要通過(guò)()來(lái)實(shí)現(xiàn)。A)流計(jì)算組件B)內(nèi)存計(jì)算組件C)MPP數(shù)據(jù)庫(kù)D)Hadoop的后臺(tái)定時(shí)分析計(jì)算任務(wù)答案:AB解析:實(shí)時(shí)計(jì)算類(lèi)應(yīng)用主要通過(guò)流計(jì)算組件、內(nèi)存計(jì)算組件來(lái)實(shí)現(xiàn)。[多選題]56.RPA應(yīng)用場(chǎng)景在上線后,運(yùn)維團(tuán)隊(duì)一般需要進(jìn)行()操作。A)場(chǎng)景的監(jiān)控B)場(chǎng)景的維護(hù)C)場(chǎng)景上下架D)收集用戶(hù)的反饋信息答案:ABCD解析:[多選題]57.自然語(yǔ)言處理與理解(NLP&NLU)是下列哪3項(xiàng)的交叉學(xué)科()A)計(jì)算機(jī)科學(xué)B)人工智能C)編程D)語(yǔ)言學(xué)答案:ABD解析:[多選題]58.打造以市場(chǎng)為導(dǎo)向.以客戶(hù)為中心的綜合能源服務(wù)業(yè)務(wù)體系,實(shí)現(xiàn)()等重點(diǎn)領(lǐng)域業(yè)務(wù)全面突破。A)綜合能效服務(wù)B)多能供應(yīng)服務(wù)C)清潔能源服務(wù)D)新興用能服務(wù)答案:ABCD解析:[多選題]59.云計(jì)算的特點(diǎn)()A)超大規(guī)模B)可靠性C)虛擬化D)安全性答案:AC解析:[多選題]60.傳統(tǒng)關(guān)系數(shù)據(jù)庫(kù)技術(shù)的優(yōu)點(diǎn)有()。A)數(shù)據(jù)一致性高B)數(shù)據(jù)冗余度低C)復(fù)雜查詢(xún)的能力強(qiáng)D)產(chǎn)品成熟度高答案:ABCD解析:[多選題]61.一個(gè)監(jiān)督觀測(cè)值集合會(huì)被劃分為()。A)訓(xùn)練集B)驗(yàn)證集C)測(cè)試集D)預(yù)處理集答案:ABC解析:一個(gè)監(jiān)督觀測(cè)值集合會(huì)被劃分為訓(xùn)練集、測(cè)試集、預(yù)測(cè)集。其中測(cè)試集來(lái)測(cè)試學(xué)習(xí)器對(duì)新樣本的判別能力,然后以測(cè)試集上的測(cè)試誤差(testingerror)作為泛化誤差的近似。[多選題]62.剪枝是決策樹(shù)學(xué)習(xí)短發(fā)對(duì)付?過(guò)擬合?的主要手段。以下屬于剪枝方法的是()A)預(yù)剪枝B)后剪枝C)先剪枝D)外剪枝答案:AB解析:[多選題]63.Skip-gram的算法實(shí)現(xiàn)包括()幾個(gè)部分?A)輸入層B)卷積層C)隱藏層D)輸出層答案:ACD解析:[多選題]64.MFCC提取過(guò)程中的步驟包含以下哪些?A)加窗B)分幀C)傅里葉變換D)倒譜分析答案:ABCD解析:[多選題]65.數(shù)據(jù)缺失值處理方法有()A)刪除帶有缺失值的樣本或特征B)采用均值填充方法對(duì)缺失值進(jìn)行填充C)可以采用隨機(jī)填補(bǔ)方法D)可以采用基于模型的填補(bǔ)答案:ABCD解析:[多選題]66.選擇如下哪些搜索方法屬于無(wú)信息搜索A)貪婪搜索B)A*搜索C)雙向搜索D)寬度優(yōu)先搜索答案:CD解析:[多選題]67.()是Hadoop運(yùn)行的模式。A)單機(jī)版B)偽分布式C)分布式D)全分布式答案:ABC解析:Hadoop運(yùn)行模式包括單機(jī)版、偽分布式和分布式。[多選題]68.()是狀態(tài)空間最基本的搜索策略。A)正向搜索B)逆向搜索C)深度優(yōu)先搜索D)寬度優(yōu)先搜索E)目的搜索答案:CD解析:第3部分:判斷題,共26題,請(qǐng)判斷題目是否正確。[判斷題]69.廣義人工智能是指通過(guò)計(jì)算機(jī)實(shí)現(xiàn)人的頭腦思維所產(chǎn)生的效果,通過(guò)研究和開(kāi)發(fā)用于模擬、延伸人的智能的理論、方法、技術(shù)及應(yīng)用系統(tǒng)所構(gòu)建而成的,其構(gòu)建過(guò)程中綜合了計(jì)算機(jī)科學(xué)、數(shù)學(xué)、生理學(xué)、哲學(xué)等內(nèi)容A)正確B)錯(cuò)誤答案:對(duì)解析:正確[判斷題]70.隱馬爾可夫模型(HMM)是結(jié)構(gòu)最簡(jiǎn)單的動(dòng)態(tài)貝葉斯網(wǎng),是一種著名的有向圖模型,主要用于時(shí)序數(shù)據(jù)建模,在語(yǔ)音識(shí)別、自然語(yǔ)言處理等領(lǐng)域有廣泛應(yīng)用。A)正確B)錯(cuò)誤答案:對(duì)解析:0[判斷題]71.Keras只是tensorflow的一個(gè)接口。A)正確B)錯(cuò)誤答案:錯(cuò)解析:0[判斷題]72.在Python3.x中語(yǔ)句print(*[1,2,3])不能正確執(zhí)行。A)正確B)錯(cuò)誤答案:錯(cuò)解析:見(jiàn)函數(shù)庫(kù)[判斷題]73.KNN不需要進(jìn)行訓(xùn)練A)正確B)錯(cuò)誤答案:對(duì)解析:正確[判斷題]74.無(wú)監(jiān)督學(xué)習(xí)指的是只要輸入變量,沒(méi)有相關(guān)的輸出變量,目標(biāo)是對(duì)數(shù)據(jù)中潛在的結(jié)構(gòu)和分布建模,以便對(duì)數(shù)據(jù)做進(jìn)一步的學(xué)習(xí)。()A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]75.測(cè)控裝置聯(lián)閉鎖信息主要通過(guò)過(guò)程層GOOSE網(wǎng)絡(luò)傳輸。A)正確B)錯(cuò)誤C)正確D)錯(cuò)誤答案:對(duì)解析:[判斷題]76.曼哈頓距離的正式意義為L(zhǎng)1-距離或城市區(qū)塊距離,也就是在歐幾里德空間的固定直角坐標(biāo)系上兩點(diǎn)所形成的線段A軸產(chǎn)生的投影的距離總和。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]77.回歸任務(wù)是預(yù)測(cè)連續(xù)值A(chǔ))正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]78.k近鄰學(xué)習(xí)是一種常用的無(wú)監(jiān)督學(xué)習(xí)方法,其工作機(jī)制為給定測(cè)試樣本,基于某種距離度量找出訓(xùn)練集中與其最靠近的k個(gè)訓(xùn)練樣本,然后基于這k個(gè)鄰居的信息來(lái)進(jìn)行預(yù)測(cè)。()A)正確B)錯(cuò)誤答案:錯(cuò)解析:k近鄰學(xué)習(xí)是一種常用的有監(jiān)督學(xué)習(xí)方法。[判斷題]79.如果在一個(gè)高度非線性并且復(fù)雜的一些變量中,一個(gè)樹(shù)模型可能比一般的回歸模型效果更好。A)正確B)錯(cuò)誤答案:對(duì)解析:0[判斷題]80.反向傳播算法中需要先計(jì)算靠近輸入層參數(shù)的梯度,再計(jì)算靠近輸出層參數(shù)的梯度。A)正確B)錯(cuò)誤答案:錯(cuò)解析:0[判斷題]81.假如現(xiàn)在有個(gè)神經(jīng)網(wǎng)絡(luò),激活函數(shù)是ReLU,若使用線性激活函數(shù)代替ReLU,該神經(jīng)網(wǎng)絡(luò)能表征XNOR函數(shù)A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]82.回歸問(wèn)題和分類(lèi)問(wèn)題都有可能發(fā)生過(guò)擬合。()A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]83.貝葉斯公式適合于人工智能的自然語(yǔ)言處理。A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]84.自然語(yǔ)言生成主要是幫助機(jī)器生成人能夠理解的語(yǔ)言A)正確B)錯(cuò)誤答案:對(duì)解析:正確[判斷題]85.字典是python的基本數(shù)據(jù)類(lèi)型之一,它由?鍵值對(duì)?組成,鍵不允許重復(fù)而值可以重復(fù)。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]86.如果D5000安全認(rèn)證模塊的證書(shū)系統(tǒng)證書(shū)部署B(yǎng)誤,D5000安全認(rèn)證模塊將無(wú)法通過(guò)驗(yàn)證。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]87.語(yǔ)言模型包括由識(shí)別語(yǔ)音命令構(gòu)成的語(yǔ)法網(wǎng)絡(luò)或由統(tǒng)計(jì)方法構(gòu)成的語(yǔ)言模型。()A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]88.堆疊膠囊自動(dòng)編碼器(SCAE)是一個(gè)有監(jiān)督膠囊網(wǎng)絡(luò)。A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]89.越是確定

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶(hù)所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶(hù)上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶(hù)上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶(hù)因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論