人工智能單選模擬習(xí)題+答案_第1頁
人工智能單選模擬習(xí)題+答案_第2頁
人工智能單選模擬習(xí)題+答案_第3頁
人工智能單選模擬習(xí)題+答案_第4頁
人工智能單選模擬習(xí)題+答案_第5頁
已閱讀5頁,還剩15頁未讀 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認(rèn)領(lǐng)

文檔簡介

人工智能單選模擬習(xí)題+答案一、單選題(共100題,每題1分,共100分)1、以下關(guān)于熵、信息增益、基尼指數(shù)的相關(guān)描述中錯誤的是A、Gini指數(shù)越大,不純度越小,越容易區(qū)分,越不容易分錯B、熵越大,不確定性越大,信息量也就越大C、熵權(quán)法是一種客觀賦權(quán)法,因為它僅依賴于數(shù)據(jù)本身的離散性D、信息增益越大,表示某個條件熵對信息熵減少程序越大,也就是說,這個屬性對于信息的判斷起到的作用越大正確答案:A2、linux操作系統(tǒng)文件系統(tǒng)的文件都按其作用分門別類地放在相關(guān)的目錄中,對于外部設(shè)備文件,一般應(yīng)將其放在()目錄中。A、/etcB、/devC、/binD、/lib正確答案:B3、Python中用于表示邏輯與、邏輯或、邏輯非運算的關(guān)鍵字分別是_________、___________、_________。A、(&、|、!)B、(&、and、!)C、(and、or、not)D、(&&、||、!)正確答案:C4、我們可以將深度學(xué)習(xí)看成一種端到端的學(xué)習(xí)方法,這里的端到端指的是A、中間端-中間端B、輸出端-中間端C、輸入端-輸出端D、輸入端-中間端正確答案:C5、生成式方法是直接基于(___)的方法?A、生成式場景B、生成式模型C、生成式學(xué)習(xí)D、生成式數(shù)據(jù)正確答案:B6、假設(shè)在龐大的數(shù)據(jù)集上使用Logistic回歸模型??赡苡龅揭粋€問題,logistics回歸需要很長時間才能訓(xùn)練。如何提高訓(xùn)練速度?()A、降低學(xué)習(xí)率,增加迭代次數(shù)B、降低學(xué)習(xí)率,減少迭代次數(shù)C、增加學(xué)習(xí)率,減少迭代次數(shù)D、提高學(xué)習(xí)率,增加迭代次數(shù)正確答案:C7、下列關(guān)于python基本元素說法錯誤的是()A、float表示實數(shù),其字面量總是包括一個小數(shù)點,屬于標(biāo)量對象B、若python對象屬于布爾類別(bool),那它也屬于非標(biāo)量對象C、python程序有時也稱腳本,是一系列定義和命令D、python解釋器有時也稱shell,用來求值定義并執(zhí)行命令正確答案:B8、對線性回歸模型進行性能評估時,以下說法正確的是A、決定系數(shù)越接近1越好B、均方根誤差接近1最好C、決定系數(shù)越接近0越好D、均方根誤差越大越好正確答案:A9、在其他條件不變的前提下,以下做法容易引起機器學(xué)習(xí)中的“過擬合”問題的是()。A、刪除稀疏的特征B、SVM算法中使用高斯核/RBF核代替線性核C、增加訓(xùn)練集量D、減少神經(jīng)網(wǎng)絡(luò)隱藏層節(jié)點數(shù)正確答案:B10、在進行主成分分析時,應(yīng)使第一主成分在總方差中所占的比重()。A、次大B、最大C、最小D、為各個主成分所占比重的加權(quán)平均值正確答案:B11、設(shè)某樹的度為3,且度為3的結(jié)點數(shù)為4,度為1的結(jié)點數(shù)為9,沒有度為2的結(jié)點。則該樹中總的結(jié)點數(shù)為A、13B、21C、22D、$20正確答案:C12、一對一分類器,k個類別需要多少個SVM?A、k(k-1)B、k(k-2)C、k(k-1)/2D、(k-1)(k-2)正確答案:C13、BineryCrossEntropy可作為()問題的損失函數(shù)。A、目標(biāo)檢測B、二分類C、多分類D、回歸正確答案:B14、()是人工智能的核心,是使計算機具有智能的主要方法,其應(yīng)用遍及人工智能的各個領(lǐng)域。A、機器學(xué)習(xí)B、人機交互C、智能芯片D、深度學(xué)習(xí)正確答案:A15、關(guān)聯(lián)規(guī)則反映了事物之間的相互依賴性或關(guān)聯(lián)性。關(guān)聯(lián)規(guī)則主要可分為()類A、4B、5C、3D、$6正確答案:C16、模型出現(xiàn)過擬合,以下何種措施無法降低過擬合現(xiàn)象A、減少訓(xùn)練數(shù)據(jù)量B、降低模型復(fù)雜度C、添加正則化項D、使用Dropout正確答案:A17、使用一個滑動窗口對語料()掃描,在每個窗口內(nèi),中心詞需要預(yù)測它的上下文,并形成訓(xùn)練數(shù)據(jù)A、從上到下B、從下到上C、從右到左D、從左到右正確答案:D18、下列不是知識表示法的是()A、狀態(tài)空間表示法B、“與/或”圖表示法C、產(chǎn)生式規(guī)則表示法D、計算機表示法正確答案:D19、下列哪個系統(tǒng)屬于新型專家系統(tǒng)?A、分布式專家系統(tǒng)B、軍事專家系統(tǒng)C、多媒體專家系統(tǒng)D、實時專家系統(tǒng)正確答案:A20、下列哪一個不是無約束算法。A、啟發(fā)式優(yōu)化方法B、梯度下降法C、擬牛頓法D、EM算法正確答案:D21、1976—1982年,人工智能的發(fā)展處于()。A、第一次繁榮期B、復(fù)蘇期C、第一次低谷期D、萌芽期正確答案:C22、C(B|A)表示在規(guī)則A->B中,證據(jù)A為真的作用下結(jié)論B為真的A、概率B、信度C、可信度D、信任增長度正確答案:B23、scikit-learn用于訓(xùn)練模型的函數(shù)接口為()A、train()B、fit()C、Fit()D、Train()正確答案:B24、CascadeRCNN中使用了()個BBOXHead完成目標(biāo)檢測A、3B、2C、1D、$4正確答案:A25、下列貝葉斯描述錯誤的是A、貝葉斯中期望損失定義為風(fēng)險B、貝葉斯判定準(zhǔn)則為最大化總體風(fēng)險C、貝葉斯基于概率和誤判損失來選擇最優(yōu)的類別標(biāo)記D、貝葉斯是概率框架下實施決策的基本方法正確答案:B26、池化操作的作用是:A、paddingB、下采樣C、上采樣D、增加特征圖通道數(shù)正確答案:B27、數(shù)據(jù)產(chǎn)品開發(fā)中,需要綜合考慮三個不同的指標(biāo),下列哪項不是三項指標(biāo)之一A、查準(zhǔn)率B、響應(yīng)速度C、響應(yīng)時間D、查全率正確答案:D28、根據(jù)邊的性質(zhì)不同,概率圖模型可大致分為兩類:第一類是使用有向無環(huán)圖表示變量間的依賴關(guān)系,稱為有向圖模型或貝葉斯網(wǎng)(Bayesiannetwork);第二類是使用無向圖表示變量間的相關(guān)關(guān)系,稱為(___)。A、拉普拉斯網(wǎng)B、馬爾科夫網(wǎng)C、赫布網(wǎng)D、塞繆爾網(wǎng)正確答案:B29、深度學(xué)習(xí)系統(tǒng)訓(xùn)練過程通常需要輸入:A、特征值和標(biāo)簽B、特征值C、標(biāo)簽D、預(yù)測值正確答案:A30、CNN卷積網(wǎng)絡(luò)中,filter尺寸的選擇多為()A、奇數(shù)B、整數(shù)C、偶數(shù)D、分?jǐn)?shù)正確答案:A31、Python中,以下哪個函數(shù)是用于輸出內(nèi)容到終端的?A、printB、outputC、console.logD、echo正確答案:A32、交叉驗證法將數(shù)據(jù)集劃分為k個大小相似的互斥子集,進行()次訓(xùn)練和測試A、k-2B、kC、k-1D、k+1正確答案:B33、下列哪個不是激活函數(shù)()。A、sigmodB、tanhC、reluD、hidden正確答案:D34、下面不是超參數(shù)的是:A、權(quán)重和偏置B、學(xué)習(xí)率C、網(wǎng)絡(luò)結(jié)構(gòu)D、mini-batch的大小正確答案:A35、若某二叉樹中的所有結(jié)點值均大于其左子樹上的所有結(jié)點值,且小于右子樹上的所有結(jié)點值,則該二叉樹遍歷序列中有序的是A、前序序列B、以上說法均不正確C、后序序列D、中序序列正確答案:D36、根據(jù)(),目前的集成學(xué)習(xí)方法大致可分為兩大類,即個體學(xué)習(xí)器間存在強依賴關(guān)系、必須串行生成的序列化方法,以及個體學(xué)習(xí)器間不存在強依賴關(guān)系、可同時生成的并行化方法。A、個體學(xué)習(xí)器的的強弱B、個體學(xué)習(xí)器的數(shù)量C、個體學(xué)習(xí)器的生成方式D、個體學(xué)習(xí)器的的類型正確答案:C37、以下關(guān)于人工智能系統(tǒng)架構(gòu)的表述,不正確的是A、數(shù)據(jù)處理一般都是在應(yīng)用層完成B、應(yīng)用層聚焦人工智能技術(shù)和各個領(lǐng)域的結(jié)合C、人工智能分為應(yīng)用層、技術(shù)層、基礎(chǔ)層D、基礎(chǔ)層提供計算能力和數(shù)據(jù)資源正確答案:A38、隨機試驗所有可能出現(xiàn)的結(jié)果,稱為()A、基本事件B、樣本空間C、樣本D、全部事件正確答案:B39、人臉檢測服務(wù)在測試圖像中沒有人臉時會報錯。A、TRUEB、FALSE正確答案:B40、用搜索法對問題求解時,一個問題可以形式化地定義為四個組成部分,即:智能體的初始狀態(tài)、后繼函數(shù)、目標(biāo)測試和()A、算法B、功率C、完備性D、路徑代價正確答案:D41、在Python2.7中,下列哪種是Unicode編碼的書寫方式?A、a=u’中文’B、a=b’中文’C、a=‘中文’D、a=r‘中文’正確答案:A42、當(dāng)數(shù)據(jù)太大而不能同時在RAM中處理時,哪種梯度技術(shù)更有優(yōu)勢A、全批量梯度下降B、隨機梯度下降正確答案:B43、我們常說“人類是智能回路的總開關(guān)”,即人類智能決定著任何智能的高度、廣度和深度,下面哪一句話對這個觀點的描述不正確A、機器智能目前無法完全模擬人類所有智能B、機器智能和人類智能相互協(xié)同所產(chǎn)生的智能能力可超越人類智能或機器智能C、人類智能是機器智能的設(shè)計者D、機器智能目前已經(jīng)超越了人類智能正確答案:D44、Boosting算法要求基學(xué)習(xí)器能對待定的數(shù)據(jù)分布進行學(xué)習(xí),這可通過()實施。A、重采樣法B、重賦權(quán)法C、重預(yù)測法D、重訓(xùn)練法正確答案:B45、池化層一般接在哪種網(wǎng)絡(luò)層之后A、全連接層B、卷積層C、輸出層D、輸入層正確答案:B46、長短期記憶LSTM的核心貢獻是引入了()的巧妙構(gòu)思,該構(gòu)思中的權(quán)重視上下文而定,而不是固定的。A、自減少B、自遞歸C、自循環(huán)D、自增加正確答案:C47、歸結(jié)原理的特點是(___)A、將復(fù)雜的邏輯規(guī)則與背景知識聯(lián)系起來化繁為簡B、發(fā)現(xiàn)更多的規(guī)則C、發(fā)明新的概念和關(guān)系D、緩解過擬合的風(fēng)險正確答案:A48、哪個范數(shù)指向量中各個元素絕對值之和?A、2范數(shù)B、p范數(shù)C、0范數(shù)D、1范數(shù)正確答案:D49、以下說法正確的是()A、神經(jīng)網(wǎng)絡(luò)可以用于多分類問題B、分類任務(wù)的評價指標(biāo)精確率和準(zhǔn)確率是同一個概念C、決策樹只能用于二分類問題D、監(jiān)督學(xué)習(xí)與無監(jiān)督學(xué)習(xí)的主要區(qū)別是,監(jiān)督學(xué)習(xí)的訓(xùn)練樣本無標(biāo)簽正確答案:A50、在訓(xùn)練神經(jīng)網(wǎng)絡(luò)過程中我們目的是讓損失函數(shù)不斷減小,我們常用以下哪種方法最小化損失函數(shù)A、梯度下降B、正則化C、DropoutD、交叉驗證正確答案:A51、在高斯混合分布中,其隱變量的含義是:A、表示高斯分布的方差B、表示數(shù)據(jù)從某個高斯分布中產(chǎn)生C、表示數(shù)據(jù)分布的概率D、表示高斯分布的均值正確答案:B52、下列關(guān)于建模流程描述中,錯誤的是A、應(yīng)該根據(jù)實際情況選擇合適的算法B、業(yè)務(wù)需求邊界的確認(rèn)十分關(guān)鍵C、模型效果不好需要從多個環(huán)節(jié)進行綜合考察迭代D、特征工程階段結(jié)束后就不需要再進行數(shù)據(jù)處理了正確答案:D53、設(shè)矩陣A經(jīng)過初等行變換變?yōu)锽,則有()。(下面的r(A)與r(B)分別表示矩陣的秩)。A、r(A)B、無法判定r(A)與r(B)之間的關(guān)系C、r(A)=r(B)D、r(A)>r(B)正確答案:C54、設(shè)A是n階方陣,則A能與n階對角陣相似的充要條件是()。A、A有n個互不相同的特征向量B、A有n個線性無關(guān)的特征向量C、A有n個互不相同的特征值D、A是對角陣正確答案:B55、使用()關(guān)鍵字來創(chuàng)建python自定義函數(shù)。A、functionB、defC、funcD、procedure正確答案:B56、在主觀Bayes方法中,證據(jù)E支持結(jié)論H時,有()。A、LSB、LS=0C、LS=1D、LS>1正確答案:D57、列算法,哪項不屬于深度學(xué)習(xí)模型?()A、卷積神經(jīng)網(wǎng)絡(luò)CNNB、支持向量機SVMC、深度殘差網(wǎng)絡(luò)D、循環(huán)神經(jīng)網(wǎng)絡(luò)RNN正確答案:B58、()是空語句,一般用做占位語句,不做任何事情。A、passB、printC、continueD、break正確答案:A59、向量的最大范數(shù)為()。A、向量中最大幅值元素的絕對值B、向量中的最小值C、向量中最小幅值元素的絕對值D、向量中的最大值正確答案:A60、()反映的是模型每一次輸出結(jié)果與模型輸出期望之間的誤差,即模型的穩(wěn)定性。反應(yīng)預(yù)測的波動情況。A、平方差B、偏差C、方差D、標(biāo)準(zhǔn)差正確答案:C61、Linux中,提供TCP/IP包過濾功能的軟件叫什么?A、filterB、routeC、iptablesD、rarp正確答案:C62、決策樹學(xué)習(xí)的關(guān)鍵是如何從候選屬性集中選擇一個最有助于分類實例的屬性,而其選擇是以()為依據(jù)的A、聚類B、分類C、信息熵D、概率正確答案:C63、一組數(shù)據(jù)相加后除以數(shù)據(jù)個數(shù)得到的值叫做()。A、眾數(shù)B、最大值C、中位數(shù)D、平均值正確答案:D64、NMS算法中文名為()A、非極大值抑制B、極小值抑制C、極大值抑制D、非極小值抑制正確答案:A65、不屬于噪聲數(shù)據(jù)表現(xiàn)形式的是()A、異常數(shù)據(jù)B、重復(fù)數(shù)據(jù)C、錯誤數(shù)據(jù)D、虛假數(shù)據(jù)正確答案:B66、以下哪種模型是自然語言處理后Bert時代的預(yù)訓(xùn)練模型()A、LSTMB、Word2VecC、RNND、XLNet正確答案:D67、關(guān)于“與/或”圖表示法的敘述中,正確的是:。A、“與/或”圖就是用“與”節(jié)點和“或”節(jié)點組合起來的樹形圖,用來描述某類問題的層次關(guān)系。B、“與/或”圖就是用“AND”和“OR”連續(xù)各個部分的圖形,用來描述各部分之間的不確定關(guān)系。C、“與/或”圖就是用“AND”和“OR”連續(xù)各個部分的圖形,用來描述各部分的因果關(guān)系。D、“與/或”圖就是用“與”節(jié)點和“或”節(jié)點組合起來的樹形圖,用來描述某類問題的求解過程。正確答案:D68、在用Tensorflow進行圖像分類時,若輸入數(shù)據(jù)的形狀為[32,224,224,3],下面說法正確的是()A、每一張圖片都是二值圖片B、以上選項均不正確C、每一張圖片都是灰度圖片D、模型一次處理32張圖片(batchsize為32)正確答案:D69、frompandasimportDataFrame這個語句的含義是()A、從DataFrame類導(dǎo)入pandas類B、從DataFrame庫導(dǎo)入pandas類C、從pandas庫導(dǎo)入DataFrame庫D、從pandas庫導(dǎo)入DataFrame類正確答案:D70、如果問題存在最優(yōu)解,則下面幾種搜索算法中,廣度優(yōu)先搜索必然可以得到該最優(yōu)解,()可以認(rèn)為是“智能程度相對比較高”的算法。A、有界深度優(yōu)先搜索B、深度優(yōu)先搜索C、啟發(fā)式搜索D、無界深度優(yōu)先搜索正確答案:C71、有兩個樣本點,第一個點為正樣本,它的特征向量是(0,-1);第二個點為負(fù)樣本,它的特征向量是(2,3),從這兩個樣本點組成的訓(xùn)練集構(gòu)建一個線性SVM分類器的分類面方程是()。A、2x-y=0B、x+2y=3C、x+2y=5D、2x+y=4正確答案:B72、Numpy中創(chuàng)建全為0的矩陣使用A、emptyB、arangeC、onesD、zeros正確答案:D73、Python內(nèi)置函數(shù)_____________用來打開或創(chuàng)建文件并返回文件對象。A、get()B、flush()C、open()D、close()正確答案:C74、人工智能處在感知智能階段的表現(xiàn)是什么?A、機器開始像人類一樣能理解、思考與決策B、機器開始像人類一樣會計算,傳遞信息C、機器開始看懂和聽懂,做出判斷,采取一些簡單行動正確答案:C75、標(biāo)準(zhǔn)循環(huán)神經(jīng)網(wǎng)絡(luò)隱含層的輸入對于網(wǎng)絡(luò)輸出的影響隨時間A、先減弱后增強B、不斷遞歸而衰退C、不斷遞歸而增強D、先增強后減弱正確答案:B76、算法模型應(yīng)支持以接口方式對外提供服務(wù),接口方式應(yīng)至少支持(_____)和SDK兩種接口方式中的一種。A、&服務(wù)總線&B、&datahubC、消息總線&D、&API&正確答案:D77、支持向量機(SVM)算法的性能取決于()A、以上都有B、軟間隔參數(shù)CC、核函數(shù)的選擇D、核函數(shù)的參數(shù)正確答案:A78、2010年谷歌推出以頂點為中心的圖處理系統(tǒng)(),其專為大規(guī)模圖數(shù)據(jù)處理而設(shè)計,將圖數(shù)據(jù)保存在主存儲器中并采用并行計算的BSP模型A、CregelB、PregelC、AregelD、Dregel正確答案:B79、下面對人類智能和機器智能的描述哪一句是不正確的A、人類智能具有自適應(yīng)特點,機器智能則大多是“依葫蘆畫瓢”B、人類智能能夠自我學(xué)習(xí),機器智能大多是依靠數(shù)據(jù)和規(guī)則驅(qū)動C、人類智能和機器智能均具備常識,因此能夠進行常識性推理D、人類智能具備直覺和頓悟能力,機器智能很難具備這樣的能力正確答案:C80、OLAM技術(shù)一般簡稱為”數(shù)據(jù)聯(lián)機分析挖掘”,下面說法正確的是:()A、基于WEB的OLAM是WEB技術(shù)與OLAM技術(shù)的結(jié)合B、OLAM服務(wù)器通過用戶圖形借口接收用戶的分析指令,在元數(shù)據(jù)的知道下,對超級立方體作一定的操作C、OLAP和OLAM都基于客戶機/服務(wù)器模式,只有后者有與用戶的交互性D、由于OLAM的立方體和用于OLAP的立方體有本質(zhì)的區(qū)別正確答案:B81、下列不是人工智能研究領(lǐng)域的是()A、專家系統(tǒng)B、模式識別C、機器翻譯D、編譯原理正確答案:D82、反向傳播算法一開始計算什么內(nèi)容的梯度,之后將其反向傳播?A、各個網(wǎng)絡(luò)權(quán)重的平方差之和B、都不對C、各個輸入樣本的平方差之和D、預(yù)測結(jié)果與樣本標(biāo)簽之間的誤差正確答案:D83、關(guān)于Python內(nèi)存管理,下列說法錯誤的是()。A、變量不必事先聲明B、變量無須先創(chuàng)建和賦值而直接使用C、可以使用del釋放資源D、變量無須指定類型正確答案:B84、在Python中,設(shè)a=2,b=3,表達(dá)式a=3值是()A、TrueB、1C、FALSED、0正確答案:A85、Python3中獲取用戶輸入并默認(rèn)以字符串存儲的函數(shù)是()A、inputB、printC、rawD、raw_input正確答案:A86、以下關(guān)于算法的說法中,不正確的是A、機器學(xué)習(xí)算法分為有監(jiān)督、半監(jiān)督和無監(jiān)督三種B、決策樹算法屬于監(jiān)督學(xué)習(xí)類別C、卷積神經(jīng)網(wǎng)絡(luò)是重要的遷移學(xué)習(xí)算法D、K-Means是屬于無監(jiān)督學(xué)習(xí)算法正確答案:C87、交叉驗證法將數(shù)據(jù)集劃分為k個大小相似的互斥子集,進行(___)次訓(xùn)練和測試。A、k-2B、k+1C、k-1D、k正確答案:D88、卷積核與特征圖的通道數(shù)的關(guān)系是:A、二者沒有關(guān)系B、卷積核數(shù)量越多特征圖通道數(shù)越少C、卷積核數(shù)量越多特征圖通道數(shù)越多D、卷積核size越大特征圖通道數(shù)越多正確答案:C89、一個完整機器學(xué)習(xí)項目需要以下哪

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論