人工智能練習(xí)題庫含答案_第1頁
人工智能練習(xí)題庫含答案_第2頁
人工智能練習(xí)題庫含答案_第3頁
人工智能練習(xí)題庫含答案_第4頁
人工智能練習(xí)題庫含答案_第5頁
已閱讀5頁,還剩14頁未讀 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

人工智能練習(xí)題庫含答案1、下列哪個應(yīng)用領(lǐng)域不屬于人工智能應(yīng)用?()A、人工神經(jīng)網(wǎng)絡(luò)B、自動控制C、自然語言學(xué)習(xí)D、專家系統(tǒng)答案:B2、下列哪些項目是在圖像識別任務(wù)中使用的數(shù)據(jù)擴增技術(shù)(dataaugmentationtechnique)?1水平翻轉(zhuǎn)(Horizontalflipping)2隨機裁剪(Randomcropping)3隨機放縮(Randomscaling)4顏色抖動(Colorjittering)5隨機平移(Randomtranslation)6隨機剪切(Randomshearing)A、1,3,5,6B、1,2,4C、2,3,4,5,6D、所有項目答案:D3、關(guān)于Python循環(huán)結(jié)構(gòu),以下選項中描述錯誤的是A、continue結(jié)束整個循環(huán)過程,不再判斷循環(huán)的執(zhí)行條件B、遍歷循環(huán)中的遍歷結(jié)構(gòu)可以是字符串、文件、組合數(shù)據(jù)類型和range函數(shù)等C、Python通過for、while等保留字構(gòu)建循環(huán)結(jié)構(gòu)D、continue用來結(jié)束當前當次語句,但不跳出當前的循環(huán)體答案:A4、聚類是一種典型的無監(jiān)督學(xué)習(xí)任務(wù),然而在現(xiàn)實聚類任務(wù)中我們往往能獲得一些額外的監(jiān)督信息,于是可通過(___)來利用監(jiān)督信息以獲得更好的聚類效果。A、監(jiān)督聚類B、半監(jiān)督聚類C、聚類D、直推聚類答案:B5、關(guān)于神經(jīng)網(wǎng)絡(luò)的說法中,正確的是()A、增加網(wǎng)絡(luò)層數(shù),總能減小訓(xùn)練集錯誤率B、減小網(wǎng)絡(luò)層數(shù),總能減小測試集錯誤率C、增加網(wǎng)絡(luò)層數(shù),可能增加測試集錯誤率答案:C6、下面哪種寫法表示如果cmd1成功執(zhí)行,則執(zhí)行cmd2命令?A、cmd1&&cmd2B、cmd1|cmd2C、cmd1D、cmd2E、cmd1||cmd2答案:A7、在python中Series想要預(yù)覽部分數(shù)據(jù),可以使用A、data.viewB、data.descripeC、data.showD、data.head答案:D8、強化學(xué)習(xí)的目標是找到()的策略A、最小損失函數(shù)B、最大化收益C、局部最優(yōu)解D、全局最優(yōu)解答案:B9、()反映的是模型每一次輸出結(jié)果與模型輸出期望之間的誤差,即模型的穩(wěn)定性。反應(yīng)預(yù)測的波動情況。A、標準差B、方差C、偏差D、平方差答案:B10、下列哪一個不是無約束算法。A、梯度下降法B、擬牛頓法C、啟發(fā)式優(yōu)化方法D、EM算法答案:D11、列表推導(dǎo)式[int(n/2)forninrange(5)]的輸出結(jié)果是下列哪項?A、0,0.5,1.5,2,2.5]B、1,2,3,4,5]C、0,1,1,2,2]D、0,0,1,1,2]答案:D12、CNN網(wǎng)絡(luò)設(shè)計中,學(xué)習(xí)率的設(shè)置往往對訓(xùn)練收斂起到關(guān)鍵作用,關(guān)于學(xué)習(xí)率的說法,錯誤的是()A、學(xué)習(xí)率太小,更新速度慢B、學(xué)習(xí)率過大,可能跨過最優(yōu)解C、學(xué)習(xí)率也是有網(wǎng)絡(luò)學(xué)習(xí)而來D、學(xué)習(xí)率可在網(wǎng)絡(luò)訓(xùn)練過程中更改答案:C13、下列關(guān)于Python函數(shù)調(diào)用說法錯誤的是()。A、函數(shù)的遞歸調(diào)用必須有一個明確的結(jié)束條件B、函數(shù)的遞歸調(diào)用每次進入更深一層遞歸時,問題規(guī)模相比上次遞歸都應(yīng)有所減少C、函數(shù)的遞歸調(diào)用效率不高,遞歸層次過多會導(dǎo)致棧溢出(在計算機中,函數(shù)調(diào)用是通過棧(stack)這種數(shù)據(jù)結(jié)構(gòu)實現(xiàn)的,每當進入一個函數(shù)調(diào)用,棧就會加一層棧幀,每當函數(shù)返回,棧就會減一層棧D、函數(shù)的遞歸調(diào)用由于棧的大小是無限的,所以,遞歸調(diào)用的次數(shù)過多,也不會導(dǎo)致棧溢出答案:D14、在Linux系統(tǒng)中,下列哪個命令可以用來查看kernel版本信息:()A、checkB、lskernelC、kernelD、uname答案:D15、VGG-19中卷積核的大小為A、3x3B、5x5C、3x3,5x5D、不確定答案:A16、以下兩種描述分別對應(yīng)哪兩種對分類算法的評價標準?(a)警察抓小偷,描述警察抓的人中有多少個是小偷的標準。(b)描述有多少比例的小偷給警察抓了的標準。A、Precision,RecallB、Recall,PrecisionC、Precision,ROCD、Recall,ROC答案:A17、下列哪一個不是神經(jīng)網(wǎng)絡(luò)的代表()A、卷積神經(jīng)網(wǎng)絡(luò)B、遞歸神經(jīng)網(wǎng)絡(luò)C、殘差網(wǎng)絡(luò)D、xgboost算法答案:D18、傳統(tǒng)的IT產(chǎn)品的開發(fā)遵循的原則是()。A、三分技術(shù)、七分管理、十二分數(shù)據(jù)B、三分數(shù)據(jù)、七分智慧、十二分體驗C、三分技術(shù)、五分管理、十一分數(shù)據(jù)D、三分數(shù)據(jù)、五分管理、十一分體驗答案:A19、反向傳播算法一開始計算什么內(nèi)容的梯度,之后將其反向傳播?A、預(yù)測結(jié)果與樣本標簽之間的誤差B、各個輸入樣本的平方差之和C、各個網(wǎng)絡(luò)權(quán)重的平方差之和D、都不對答案:A20、關(guān)于主成分分析PCA說法不正確的是A、我們必須在使用PCA前規(guī)范化數(shù)據(jù)B、我們應(yīng)該選擇使得模型有最大variance的主成分C、我們應(yīng)該選擇使得模型有最小variance的主成分D、我們可以使用PCA在低緯度上做數(shù)據(jù)可視化答案:C21、在K-搖臂賭博機中,若嘗試次數(shù)非常大,在一段時間后,搖臂的獎賞能很好的近似出來,不再需要探索,則可讓ε隨著嘗試次數(shù)增加而(___)A、增大B、置為無窮C、置為0D、減少答案:D22、按標注活動的自動化程度,以下()不屬于數(shù)據(jù)標注的類別。A、手工標注B、自動化標注C、半自動化標注D、半手工標注答案:D23、知識圖譜中的邊稱為?A、連接邊B、關(guān)系C、屬性D、特征答案:B24、下列對LVW算法的說法錯誤的是(___)A、算法中特征子集搜索采用了隨機策略B、每次特征子集評價都需要訓(xùn)練學(xué)習(xí)器,開銷很大C、算法設(shè)置了停止條件控制參數(shù)D、算法可能求不出解答案:D25、下面對前饋神經(jīng)網(wǎng)絡(luò)這種深度學(xué)習(xí)方法描述不正確的是A、是一種端到端學(xué)習(xí)的方法B、是一種監(jiān)督學(xué)習(xí)的方法C、實現(xiàn)了非線性映射D、隱藏層數(shù)目大小對學(xué)習(xí)性能影響不大答案:D26、神經(jīng)網(wǎng)絡(luò)研究屬于下列哪個學(xué)派?A、符號主義B、連接主義C、行為主義D、以上都不是答案:B27、已知x=3,那么執(zhí)行語句x*=6之后,x的值為_________。A、18B、9C、3D、$2答案:A28、已知x=[3,5,7],那么表達式x[-1::-1]的值為()。A、3]B、5,3]C、7,5]D、7,5,3]答案:D29、關(guān)于人工智能的發(fā)展歷史下列說法中不正確的是()。A、其發(fā)展階段經(jīng)歷了三次大的浪潮。B、第一次是50-60年代注重邏輯推理的機器翻譯時代。C、人工智能的概念形成于20世紀40年代。D、第二次是70-80年代依托知識積累構(gòu)建模型的專家系統(tǒng)時代。答案:C30、在專家系統(tǒng)的開發(fā)過程中使用的專家系統(tǒng)工具一般分為專家系統(tǒng)的和通用專家系統(tǒng)工具兩類。A、模型工具B、外殼C、知識庫工具D、專用工具答案:B31、下面哪個Linux命令可以一次顯示一頁內(nèi)容?A、pauseB、catC、moreD、grep答案:C32、代碼defa(b,c,d):pass含義是?A、定義一個列表,并初始化它。B、定義一個函數(shù),但什么都不做。C、定義一個函數(shù),并傳遞參數(shù)。D、定義一個空的類。答案:B33、混淆矩陣中TP=16,FP=12,FN=8,TN=4,召回率是()。A、1212122022年1月4日B、1212122022年1月2日C、1212122022年4月7日D、1212122022年2月3日答案:D34、OCR是指對文本書面資料(印刷字體、手寫字體)的圖像文件進行分析識別處理,獲取文字及版面信息的過程,其中文全程是()。A、光學(xué)字符識別B、文字識別C、字符識別D、書面識別答案:A35、下面不屬于人工智能研究基本內(nèi)容的是()。A、機器感知B、機器學(xué)習(xí)C、自動化D、機器思維答案:C36、用Tensorflow處理圖像識別任務(wù)時,若輸入數(shù)據(jù)的形狀為[64,224,224,3],下面說法正確的是A、每一張圖片都是二值圖片B、每一張圖片都是三通道圖片C、模型一次處理224張圖片(batchsize為224)D、以上選項均不正確答案:B37、關(guān)于字符串下列說法錯誤的是A、字符應(yīng)該視為長度為1的字符串&B、&字符串以\0標志字符串的結(jié)束&C、&既可以用單引號,也可以用雙引號創(chuàng)建字符串&D、&在三引號字符串中可以包含換行回車等特殊字符答案:B38、從裝有大小,材質(zhì)完全相同的3個紅球和3個黑球的不透明口袋中,隨機摸出兩個小球,則兩個小球同色的概率為A、1212122022年2月3日B、1212122022年1月2日C、1212122022年2月5日D、1212122022年1月3日答案:C39、在下列哪些應(yīng)用中,我們可以使用深度學(xué)習(xí)來解決問題?A、蛋白質(zhì)結(jié)構(gòu)預(yù)測B、化學(xué)反應(yīng)的預(yù)測C、外來粒子的檢測D、所有這些答案:D40、以下()不屬于常用的數(shù)據(jù)加工方法A、采集B、脫敏C、歸約D、分解處理答案:A41、()表達式在Python中是非法的。A、x=y=z=1B、x=y=z+1C、x,y=y,xD、x?+=?y答案:B42、設(shè)z=xyz+z^2+5,則u在點M(0,1,-1)處的梯度是()。A、0,2,-2B、1,0,2C、-1,1,0D、-1,0,-2答案:D43、深度學(xué)習(xí)中的不同最優(yōu)化方式,如SGD,ADAM下列說法中正確的是A、在實際場景下,應(yīng)盡量使用ADAM,避免使用SGDB、同樣的初始學(xué)習(xí)率情況下,ADAM的收斂速度總是快于SGD方法C、相同超參數(shù)數(shù)量情況下,比起自適應(yīng)的學(xué)習(xí)率調(diào)整方式,SGD加手動調(diào)節(jié)通常會取得更好效果D、同樣的初始學(xué)習(xí)率情況下,ADAM比SGD容易過擬合答案:C44、函數(shù)u=ln(x+sqrt(y^2+z^2))在點M(1,0,1)處沿點M指向N(3,-2,2)方向的方向?qū)?shù)是()。A、1212122022年3月2日B、1212122022年1月2日C、-1.5D、-0.5答案:B45、下列哪個系統(tǒng)屬于新型專家系統(tǒng)?A、多媒體專家系統(tǒng)B、實時專家系統(tǒng)C、軍事專家系統(tǒng)D、分布式專家系統(tǒng)答案:D46、已知x=3和y=5,執(zhí)行語句x,y=y,x后x的值是____。A、5B、3C、NoneD、$4答案:A47、numpy.arange(0,4)的結(jié)果為()A、array0,1,2,3]B、array0,1,2,3]C、0,1,2,3]D、array0,1,2,3,4]答案:A48、下列關(guān)于半樸素貝葉斯描述錯誤的為(___)A、假設(shè)屬性之間完全獨立;B、假設(shè)屬性之間部分相關(guān);C、獨依賴估計為半樸素貝葉斯最常用的策略;D、假設(shè)所以屬性都依賴于同一個屬性;答案:A49、下列哪個不是人工智能的研究領(lǐng)域()。A、機器證明B、模式識別C、人工生命D、編譯原理答案:D50、()是數(shù)據(jù)庫管理系統(tǒng)運行的基本工作單位。A、事務(wù)B、數(shù)據(jù)倉庫C、數(shù)據(jù)單元D、D數(shù)據(jù)分析答案:A51、對于DBSCAN,參數(shù)Eps固定,當MinPts取值較大時,會導(dǎo)致A、能很好的區(qū)分各類簇B、只有高密度的點的聚集區(qū)劃為簇,其余劃為噪聲C、低密度的點的聚集區(qū)劃為簇,其余的劃為噪聲D、無影響答案:B52、下列哪個函數(shù)不可以做激活函數(shù)?A、y=tanhxB、y=sinxC、y=maxx,0D、y=2x答案:D53、或圖通常稱為()。A、框架網(wǎng)絡(luò)B、語義圖C、博亦圖D、狀態(tài)圖答案:D54、設(shè)f(x,y,z)=(x^2)yz,求在點M(1,1,1)沿向量l=(2,-1,3)的方向?qū)?shù)為()。A、8/sqrt14B、6/sqrt14C、2/sqrt6D、3/sqrt6答案:B55、讀取文件時并指定文件以空格分隔,則應(yīng)該添加A%、sep="”B、sep="\t”C、sep=""D、sep="\r”"答案:C56、阿爾法狗是第一個擊敗人類職業(yè)圍棋選手、第一個戰(zhàn)勝圍棋世界冠軍的人工智能程序,它的主要工作原理是什么?A、機器學(xué)習(xí)B、深度學(xué)習(xí)C、BP神經(jīng)網(wǎng)絡(luò)D、卷積神經(jīng)網(wǎng)絡(luò)答案:B57、感知機由()神經(jīng)元組成。A、兩層B、三層C、一層D、四層答案:A58、對學(xué)習(xí)器的泛化性能進行評估,不僅需要有效可行的實驗估計方法,還需要有衡量模型泛化能力的評價標準,這就是()。A、性能度量B、性能評估C、泛化能力評估D、性能衡量答案:A59、影響基本K-均值算法的主要因素不包括下列哪一個選項?A、樣本輸入順序B、模式相似性測度C、聚類準則D、初始類中心的選取答案:C60、數(shù)據(jù)產(chǎn)品“以數(shù)據(jù)為中心”的特征不僅體現(xiàn)在“以數(shù)據(jù)為核心生產(chǎn)要素”,而且還表現(xiàn)在以下三個方面A、數(shù)據(jù)驅(qū)動數(shù)據(jù)密集型數(shù)據(jù)范式B、數(shù)據(jù)加工數(shù)據(jù)密集型數(shù)據(jù)范式C、數(shù)據(jù)驅(qū)動數(shù)據(jù)審計數(shù)據(jù)分析D、數(shù)據(jù)加工數(shù)據(jù)審計數(shù)據(jù)分析答案:A61、下列屬于無監(jiān)督學(xué)習(xí)的模型是()A、k-meansB、線性回歸C、神經(jīng)網(wǎng)絡(luò)D、決策樹答案:A62、以下哪一種分布是二維隨機變量的分布()。A、正態(tài)分布B、二項分布C、邊緣分布D、指數(shù)分布答案:C63、專家系統(tǒng)是一個復(fù)雜的智能軟件,它處理的對象是用符號表示的知識,處理的過程是()的過程。A、思維B、思考C、推理D、遞推答案:C64、設(shè)f′(x0)=0,則曲線y=f(x)在點(x0,f(x0))處的切線()A、不存在B、與x軸平行或重合C、x軸垂直D、與x軸相交但不垂直答案:B65、在Python中,用變量code存儲學(xué)生的借書卡編碼,例如:code=“NO.2020100502”,則變量code的數(shù)據(jù)類型應(yīng)定義為()A、布爾型B、整型C、字符串型D、浮點型答案:C66、比較成熟的分類預(yù)測模型算法包括Logistic回歸模型、廣義線性模型、()、神經(jīng)網(wǎng)絡(luò)A、決策樹B、arima模型C、holt-winter模型D、k-means模型答案:A67、人工智能的近期目標是()。A、實現(xiàn)機器智能B、實現(xiàn)自我學(xué)習(xí)C、降低搭建成本D、超越人類答案:A68、pandas中下列哪個函數(shù)可以根據(jù)單個或多個鍵將不同DataFrame的行連接起來。A、bineB、pd.concatC、pd.mergeD、pd.agg答案:C69、常見的圖像預(yù)處理方法不包括(____)。A、圖像降噪B、圖像增強C、圖像尺寸歸一化D、圖像標注答案:D70、深度學(xué)習(xí)涉及到大量的矩陣相乘,現(xiàn)需要計算三個稠密矩陣A,B,C的乘積ABC,假設(shè)三個矩陣的尺寸分別為m?n,n?p,p?q,且m<n<p<q,以下計算順序效率最高的是A、ABC&B、&ACB&C、&ABC&D、&所有效率都相同答案:A71、變量[0,0,1,1,1]的信息熵為()。A、-3/5log3/5+2/5log2/5B、3/5log3/5+2/5log2/5C、2/5log3/5+3/5log2/5D、3/5log2/5–2/5log3/5答案:A72、能通過對過去和現(xiàn)在已知狀況的分析,推斷未來可能發(fā)生的情況的專家系統(tǒng)是()。A、修理專家系統(tǒng)B、預(yù)測專家系統(tǒng)C、調(diào)試專家系統(tǒng)D、規(guī)劃專家系統(tǒng)答案:B73、3*4的方格,從左下角走到右上角,跨一方格為1步,最短路徑前提下一共有()種不同路徑?A、12B、81C、35D、$64答案:C74、相互關(guān)聯(lián)的數(shù)據(jù)資產(chǎn)標準,應(yīng)確保()。數(shù)據(jù)資產(chǎn)標準存在沖突或銜接中斷時,后序環(huán)節(jié)應(yīng)遵循和適應(yīng)前序環(huán)節(jié)的要求,變更相應(yīng)數(shù)據(jù)資產(chǎn)標準。A、連接B、配合C、銜接和匹配D、連接和配合答案:C75、學(xué)習(xí)器的實際預(yù)測輸出與樣本的真實輸出之間的差異稱為A、錯誤率B、精度C、誤差D、查準率答案:C76、CRISP-DM將數(shù)據(jù)挖掘的過程抽象為四個層次:階段、一般任務(wù)、()和過程實例A、具體任務(wù)B、分析C、規(guī)劃D、建模答案:A77、作為一家專業(yè)的圖形處理芯片公司,()在1999年發(fā)明圖形處理器GPU。A、高通B、英特爾C、AMDD、英偉達答案:D78、()的層結(jié)構(gòu)主要有:輸入層、卷積層、池化層(匯聚層、下采樣層)、輸出層等,其他的還可以有全連接層,歸一化層之類的層結(jié)構(gòu)。A、卷積神經(jīng)網(wǎng)絡(luò)B、網(wǎng)絡(luò)神經(jīng)C、識別神經(jīng)D、圖像神經(jīng)答案:A79、下面關(guān)于RandomForest和GradientBoostingTrees說法正確的是?()A、RndomForest的中間樹不是相互獨立的,而GrdientBoostingTrees的中間樹是相互獨立的B、兩者都使用隨機特征子集來創(chuàng)建中間樹C、在GradientBoostingTrees中可以生成并行樹,因為它們是相互獨立的D、無論任何數(shù)據(jù),GraientBoostingTrees總是優(yōu)于RanomFores答案:B80、1956年之前,人工智能領(lǐng)域的三論不包括().A、控制論B、數(shù)據(jù)論C、信息論D、系統(tǒng)論答案:B81、算法性能顯著不同時,需要進行(___)來進一步區(qū)分各算法。A、后續(xù)檢驗B、Friedman檢驗C、交叉驗證t檢驗D、McNemar檢驗答案:A82、下列關(guān)于建模流程描述中,錯誤的是A、業(yè)務(wù)需求邊界的確認十分關(guān)鍵B、特征工程階段結(jié)束后就不需要再進行數(shù)據(jù)處理了C、應(yīng)該根據(jù)實際情況選擇合適的算法D、模型效果不好需要從多個環(huán)節(jié)進行綜合考察迭代答案:B83、一對一分類器,k個類別需要多少個SVM?A、kk-1/2B、kk-1C、kk-2D、k-1k-2答案:A84、為應(yīng)對卷積網(wǎng)絡(luò)模型中大量的權(quán)重存儲問題,研究人員在適量犧牲精度的基礎(chǔ)上設(shè)計出一款超輕量化模型()A、KNNB、RNNC、BNND、VGG答案:C85、使用一個滑動窗口對語料()掃描,在每個窗口內(nèi),中心詞需要預(yù)測它的上下文,并形成訓(xùn)練數(shù)據(jù)A、從左到右B、從上到下C、從右到左D、從下到上答案:A86、faster-rcnn回歸分支采用()lossA、L1B、L2C、SmoothL1D、nan答案:C87、關(guān)于學(xué)習(xí)率的描述正確的是:A、學(xué)習(xí)率和w、b一樣是參數(shù),是系統(tǒng)自己學(xué)習(xí)得到的B、學(xué)習(xí)率越大系統(tǒng)運行速度越快C、學(xué)習(xí)率越小系統(tǒng)一定精度越高D、學(xué)習(xí)率的大小是根據(jù)不同場景程序員自己設(shè)定的,不宜太大或者太小答案:D88、設(shè)矩陣A=[3,-1,-2;1,0,-1;-2,1,4],則A的伴隨矩陣(1,2)位置的元素是()。A、-6B、6C、-2D、$2答案:B89、Python使用()符號標示注釋。A、&B、*C、#D、//答案:C90、下面關(guān)于最小二乘法(OrdinaryLeastSquares)的說法,正確的是:A、最小二乘

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論