人工智能復(fù)習復(fù)習試題及答案_第1頁
人工智能復(fù)習復(fù)習試題及答案_第2頁
人工智能復(fù)習復(fù)習試題及答案_第3頁
人工智能復(fù)習復(fù)習試題及答案_第4頁
人工智能復(fù)習復(fù)習試題及答案_第5頁
已閱讀5頁,還剩60頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

第頁人工智能復(fù)習復(fù)習試題及答案1.強化學(xué)習的基礎(chǔ)模型是()模型A、馬可夫決策B、貝葉斯C、HMMD、最大后驗概率【正確答案】:A解析:

見算法解析2.關(guān)于梯度下降算法描述正確的是:A、梯度下降算法就是不斷的更新w和b的值B、梯度下降算法就是不斷的更新w和b的導(dǎo)數(shù)值C、梯度下降算法就是不斷尋找損失函數(shù)的最大值D、梯度下降算法就是不斷更新學(xué)習率【正確答案】:A解析:

梯度下降算法就是不斷的更新w和b的值3.代碼arr3=np.array([[1,2,3],[4,5,6]]).transpose();print(arr3[1,1])的輸出結(jié)果是()?A、5B、4C、3D、2【正確答案】:A解析:

見算法解析4.主成分分析是一種數(shù)據(jù)降維和去除相關(guān)性的方法,它通過()將向量投影到低維空間。A、線性變換B、非線性變換C、拉布拉斯變換D、z變換【正確答案】:A解析:

主成分分析是一種數(shù)據(jù)降維和去除相關(guān)性的方法,它通過線性變換將向量投影到低維空間。5.下列選項中,是合頁損失函數(shù)的是()。A、exp(yf(x))B、[1-yf(x)]_+C、log[1+exp(-yf(x))D、exp(-yf(x))【正確答案】:B解析:

A不是損失函數(shù),Csiro邏輯斯蒂損失函數(shù),D是指數(shù)損失函數(shù)。6.下列哪一個不是神經(jīng)網(wǎng)絡(luò)的代表A、卷積神經(jīng)網(wǎng)絡(luò)B、遞歸神經(jīng)網(wǎng)絡(luò)C、殘差網(wǎng)絡(luò)D、xgboost算法【正確答案】:D解析:

XGBoost是針對分類或回歸問題的boosting算法的一種實現(xiàn)方式,并不是神經(jīng)網(wǎng)絡(luò)的代表。7.對完成特定任務(wù)的卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練采用的是監(jiān)督學(xué)習方法。在這個過程中,通過誤差后向傳播來優(yōu)化調(diào)整網(wǎng)絡(luò)參數(shù),請問下面哪個參數(shù)不是通過誤差后向傳播來優(yōu)化的A、卷積濾波矩陣中的參數(shù)B、全連接層的鏈接權(quán)重C、激活函數(shù)中的參數(shù)D、模型的隱藏層數(shù)目【正確答案】:D解析:

08.在人臉檢測算法中,不屬于該算法難點的是A、出現(xiàn)人臉遮擋B、人臉角度變化大C、需要檢測分辨率很小的人臉D、需要檢測不同性別的人臉【正確答案】:D解析:

在人臉檢測算法中,不屬于該算法難點的是需要檢測不同性別的人臉9.假設(shè)你有5個大小為7x7、邊界值為0的卷積核,同時卷積神經(jīng)網(wǎng)絡(luò)第一層的深度為1。此時如果你向這一層傳入一個維度為224x224x3的數(shù)據(jù),那么神經(jīng)網(wǎng)絡(luò)下一層所接收到的數(shù)據(jù)維度是多少?A、218x218x5B、217x217x8C、217x217x3D、220x220x5【正確答案】:A解析:

010.神經(jīng)元之間的每個連接都有()權(quán)重。A、一個B、兩個C、多個D、無【正確答案】:A解析:

神經(jīng)元之間的每個連接都有一個權(quán)重。11.評估完模型之后,發(fā)現(xiàn)模型存在高偏差(highbias),應(yīng)該如何解決?A、減少模型的特征數(shù)量B、增加模型的特征數(shù)量C、增加樣本數(shù)量D、以上說法都正確【正確答案】:B解析:

如果模型存在高偏差(highbias),意味著模型過于簡單。為了使模型更加健壯,我們可以在特征空間中添加更多的特征。而添加樣本數(shù)量將減少方差12.在強化學(xué)習的過程中,學(xué)習率α越大,表示采用新的嘗試得到的結(jié)果比例越(),保持舊的結(jié)果的比例越()。A、大;小B、大;大C、小;小D、小;大【正確答案】:A解析:

013.閔可夫斯基距離表示為曼哈頓距離時,p為()。A、1B、2C、3D、4【正確答案】:A解析:

閔可夫斯基距離定義為:該距離最常用的p是2和1,前者是歐幾里得距離),后者是曼哈頓距離。14.與傳統(tǒng)的關(guān)系型數(shù)據(jù)庫相比,圖數(shù)據(jù)庫善于處理大量的、復(fù)雜的、互聯(lián)的、多變的網(wǎng)狀數(shù)據(jù),效率遠遠()傳統(tǒng)型數(shù)據(jù)庫A、小于B、接近C、等于D、高于【正確答案】:D解析:

與傳統(tǒng)的關(guān)系型數(shù)據(jù)庫相比,圖數(shù)據(jù)庫善于處理大量的、復(fù)雜的、互聯(lián)的、多變的網(wǎng)狀數(shù)據(jù),效率遠遠高于傳統(tǒng)型數(shù)據(jù)庫15.()對隱含層的輸入進行歸一化,更好的尺度不變性(應(yīng)對內(nèi)部協(xié)變量偏移),更好的優(yōu)化地形(輸入處于不飽和區(qū)域,從而讓梯度變大)A、歸一化B、白化C、數(shù)據(jù)增強D、批量歸一化【正確答案】:D解析:

批量歸一化對隱含層的輸入進行歸一化,更好的尺度不變性(應(yīng)對內(nèi)部協(xié)變量偏移),更好的優(yōu)化地形(輸入處于不飽和區(qū)域,從而讓梯度變大)16.DSSM經(jīng)典模型的缺點:1.Wordhashing可能造成詞語沖突;2.采用詞袋模型,損失了上下文語序信息;3.搜索引擎的排序由多種因素決定,用戶點擊時doc排名越靠前越容易被點擊,僅用點擊來判斷正負樣本,產(chǎn)生的噪聲較大,模型難以收斂;4.效果不可控。A、1.2.3B、1.3.4C、2.3.4D、【正確答案】:D解析:

DSSM經(jīng)典模型的缺點:1.Wordhashing可能造成詞語沖突;2.采用詞袋模型,損失了上下文語序信息;3.搜索引擎的排序由多種因素決定,用戶點擊時doc排名越靠前越容易被點擊,僅用點擊來判斷正負樣本,產(chǎn)生的噪聲較大,模型難以收斂;4.效果不可控。17.對于一個分類任務(wù),如果開始時神經(jīng)網(wǎng)絡(luò)的權(quán)重不是隨機賦值的,而是都設(shè)成0,下面哪個敘述是正確的?A、其他選項都不對B、沒啥問題,神經(jīng)網(wǎng)絡(luò)會正常開始訓(xùn)練C、神經(jīng)網(wǎng)絡(luò)可以訓(xùn)練,但是所有的神經(jīng)元最后都會變成識別同樣的東西D、神經(jīng)網(wǎng)絡(luò)不會開始訓(xùn)練,因為沒有梯度改變【正確答案】:C解析:

018.類別不平衡指分類任務(wù)中不同類別的訓(xùn)練樣例數(shù)目()的情況。A、沒有差別B、差別很大C、差別很小D、以上都不正確【正確答案】:B解析:

見算法解析19.無監(jiān)督學(xué)習需要()A、學(xué)習程序自己形成和評價概念,沒有教師B、學(xué)習程序在教師監(jiān)督下形成和評價概念C、學(xué)習程序有時需要教師,有時不需要教師,以形成和評價概念D、以上說法都不對【正確答案】:A解析:

020.在前饋神經(jīng)網(wǎng)絡(luò)中,誤差后向傳播(BP算法)將誤差從輸出端向輸入端進行傳輸?shù)倪^程中,算法會調(diào)整前饋神經(jīng)網(wǎng)絡(luò)的什么參數(shù)A、輸入數(shù)據(jù)大小B、神經(jīng)元和神經(jīng)元之間連接有無C、相鄰層神經(jīng)元和神經(jīng)元之間的連接權(quán)重D、同一層神經(jīng)元之間的連接權(quán)重【正確答案】:C解析:

021.我們可以將深度學(xué)習看成一種端到端的學(xué)習方法,這里的端到端指的是A、輸入端-輸出端B、輸入端-中間端C、輸出端-中間端D、中間端-中間端【正確答案】:A解析:

022.獨熱編碼的英文是:A、onehotB、twohotC、onecoldD、twocold【正確答案】:A解析:

獨熱編碼的英文是onehot23.梯度爆炸一般出現(xiàn)在深層網(wǎng)絡(luò)和權(quán)值初始化值()的情況下A、太小B、太大C、分布不均勻D、太接近零【正確答案】:B解析:

梯度爆炸一般出現(xiàn)在深層網(wǎng)絡(luò)和權(quán)值初始化值太大的情況下24.多義現(xiàn)象可以被定義為在文本對象中一個單詞或短語的多種含義共存。下列哪一種方法可能是解決此問題的最好選擇?A、隨機森林分類器B、卷積神經(jīng)網(wǎng)絡(luò)C、梯度爆炸D、上述所有方法【正確答案】:B解析:

025.循環(huán)神經(jīng)網(wǎng)絡(luò)優(yōu)勢在于()A、對序列的每個元素進行相同的計算,輸出取決于之前的數(shù)據(jù)狀態(tài)B、對序列的每個元素進行不同的計算,輸出取決于之后的數(shù)據(jù)狀態(tài)C、對序列的每個元素進行相同的計算,輸出取決于之后的數(shù)據(jù)狀態(tài)D、以上都不對【正確答案】:A解析:

026.根據(jù)numpy數(shù)組中ndim屬性的含義確定程序的輸出()。array=np.array([[1,2,3],[4,5,6],[7,8,9],[10,11,12]]);print(array.ndim)A、(3,4)B、2C、(4,3)D、4【正確答案】:B解析:

見算法解析27.啟發(fā)式搜索是尋求問題()解的一種方法A、最優(yōu)B、一般C、滿意D、最壞【正確答案】:C解析:

028.使用批量歸一化可以解決神經(jīng)網(wǎng)絡(luò)訓(xùn)練中的哪些問題?A、過擬合OverfittingB、RestrictactivationstobecometoohighorlowC、訓(xùn)練過慢D、以上所有【正確答案】:D解析:

029.OLAM技術(shù)一般簡稱為”數(shù)據(jù)聯(lián)機分析挖掘”,下面說法正確的是:A、OLAP和OLAM都基于客戶機/服務(wù)器模式,只有后者有與用戶的交互性B、由于OLAM的立方體和用于OLAP的立方體有本質(zhì)的區(qū)別C、基于WEB的OLAM是WEB技術(shù)與OLAM技術(shù)的結(jié)合.D、OLAM服務(wù)器通過用戶圖形借口接收用戶的分析指令,在元數(shù)據(jù)的知道下,對超級立方體作一定的操作.【正確答案】:D解析:

030.在中期圖像識別技術(shù)(2003-2012)中,索引的經(jīng)典模型是()。A、口袋模型B、詞袋模型C、膠囊模型D、增量模型【正確答案】:B解析:

在中期圖像識別技術(shù)(2003-2012)中,索引的經(jīng)典模型是詞袋模型。31.根據(jù)邊的性質(zhì)不同,概率圖模型可大致分為兩類:第一類是使用有向無環(huán)圖表示變量間的依賴關(guān)系,稱為();第二類是使用無向圖表示變量間的相關(guān)關(guān)系,稱為無向圖模型或馬爾可夫網(wǎng)(Markovnetwork)。A、貝葉斯網(wǎng)B、拉普拉斯網(wǎng)C、帕斯卡網(wǎng)D、塞繆爾網(wǎng)【正確答案】:A解析:

見算法解析32.()有跟環(huán)境進行交互,從反饋當中進行不斷的學(xué)習的過程。A、監(jiān)督學(xué)習B、非監(jiān)督學(xué)習C、強化學(xué)習D、線性回歸【正確答案】:C解析:

033.變量選擇是用來選擇最好的判別器子集,如果要考慮模型效率,我們應(yīng)該做哪些變量選擇的考慮?:1.多個變量其實有相同的用處2.變量對于模型的解釋有多大作用3.特征攜帶的信息4.交叉驗證A、1和4B、1,2和3C、1,3和4D、以上所有【正確答案】:C解析:

這題的題眼是考慮模型效率,所以不要考慮選項234.TF-IDF模型中,TF意思是詞頻,IDF意思是()。A、文本頻率指數(shù);B、逆文本頻率指數(shù)C、詞頻指數(shù)D、逆詞頻指數(shù)【正確答案】:B解析:

TF-IDF模型中,TF意思是詞頻,IDF意思是逆文本頻率指數(shù)。35.()就是讓機器通過處理和識別過程,把語音信號轉(zhuǎn)變?yōu)橄鄳?yīng)的文本或信息的高技術(shù)。A、語音分析技術(shù)B、語音轉(zhuǎn)化技術(shù)C、語音合成技術(shù)D、語音識別技術(shù)【正確答案】:D解析:

語音識別技術(shù)就是讓機器通過處理和識別過程,把語音信號轉(zhuǎn)變?yōu)橄鄳?yīng)的文本或信息的高技術(shù)。36.下面的交叉驗證方法

:i.有放回的Bootstrap方法ii.留一個測試樣本的交叉驗證iii.

5折交叉驗證iv.重復(fù)兩次的5折教程驗證當樣本是1000時,下面執(zhí)行時間的順序,正確的是:A、i>ii>iii>ivB、ii>iv>iii>iC、iv>i>ii>iiiD、ii>iii>iv>i【正確答案】:B解析:

·

Boostrap方法是傳統(tǒng)地隨機抽樣,驗證一次的驗證方法,只需要訓(xùn)練1次模型,所以時間最少。留一個測試樣本的交叉驗證,需要n次訓(xùn)練過程(n是樣本個數(shù)),這里,要訓(xùn)練1000個模型。5折交叉驗證需要訓(xùn)練5個模型。重復(fù)2次的5折交叉驗證,需要訓(xùn)練10個模型37.為了對某圖像中的目標進行分析和識別,一般需要對圖像進行()處理。A、圖像加噪B、圖像采集C、圖像壓縮D、圖像分割【正確答案】:D解析:

為了對某圖像中的目標進行分析和識別,一般需要對圖像進行圖像分割處理。38.決策樹所形成的分類邊界有一個明顯特點,它的分類邊界由若干個()分段組成。A、與坐標軸平行B、與坐標軸垂直C、與坐標軸重合D、過坐標原點【正確答案】:A解析:

見算法解析39.Relu在零點不可導(dǎo),那么在反向傳播中怎么處理()A、設(shè)為0B、設(shè)為無窮大C、不定義D、設(shè)為任意值【正確答案】:A解析:

Relu在零點不可導(dǎo),那么在反向傳播中設(shè)為040.目前RNN中常用的激活函數(shù)是()A、reluB、sigmoidC、eluD、Swish【正確答案】:B解析:

目前RNN中常用的激活函數(shù)是sigmoid41.下面哪項操作能實現(xiàn)跟神經(jīng)網(wǎng)絡(luò)中Dropout的類似效果A、BoostingBaggingC、StackingD、Mapping【正確答案】:B解析:

042.下列哪一項在神經(jīng)網(wǎng)絡(luò)中引入了非線性?A、隨機梯度下降B、修正線性單元(ReLU)C、卷積函數(shù)D、以上都不正確【正確答案】:B解析:

043.DNN不是適合處理圖像問題是因為“維數(shù)災(zāi)難”,那么“維數(shù)災(zāi)難”會帶來什么問題呢:A、網(wǎng)絡(luò)結(jié)構(gòu)過于復(fù)雜B、DNN根本不能處理圖像問題C、內(nèi)存、計算量巨大、訓(xùn)練困難D、神經(jīng)元數(shù)量下降,所以精度下降【正確答案】:C解析:

“維數(shù)災(zāi)難”會帶來內(nèi)存、計算量巨大、訓(xùn)練困難等問題。44.關(guān)于線性回歸的描述,以下說法正確的有A、基本假設(shè)包括隨機干擾項是均值為0,方差為1的標準正態(tài)分布B、基本假設(shè)包括隨機干擾項是均值為0的同方差正態(tài)分布C、多重共線性會使得參數(shù)估計值方差減小D、基本假設(shè)包括不服從正態(tài)分布的隨機干擾項【正確答案】:B解析:

線性回歸基本假設(shè)包括隨機干擾項是均值為0的同方差正態(tài)分布45.深度學(xué)習是當前很熱門的機器學(xué)習算法,在深度學(xué)習中,涉及到大量的矩陣相乘,現(xiàn)在需要計算三個稠密矩陣A,B,C的乘積ABC,假設(shè)三個矩陣的尺寸分別為m?n,n?p,p?q,且mA、(AB)CB、AC(B)C、A(BC)D、所有效率都相同【正確答案】:A解析:

046.下列哪項算法是深度學(xué)習的重要基礎(chǔ):()A、最小生成樹算法B、最大流-最小割算法C、A*算法D、SGD反向傳播【正確答案】:D解析:

深度學(xué)習的重要基礎(chǔ)是反向傳播47.2010年谷歌推出以頂點為中心的圖處理系統(tǒng)(),其專為大規(guī)模圖數(shù)據(jù)處理而設(shè)計,將圖數(shù)據(jù)保存在主存儲器中并采用并行計算的BSP模型AregelB、PregelCregelDregel【正確答案】:B解析:

2010年谷歌推出以頂點為中心的圖處理系統(tǒng)Pregel,其專為大規(guī)模圖數(shù)據(jù)處理而設(shè)計,將圖數(shù)據(jù)保存在主存儲器中并采用并行計算的BSP模型48.下屬模型是一階段網(wǎng)絡(luò)的是()A、YOLOv2B、rcnnC、fast-rcnnD、faster-rcnn【正確答案】:A解析:

見算法解析49.在分布式隱私保護機器學(xué)習系統(tǒng)中,()可為其提供算力支持。A、DDRB、DRAMC、SRAMD、FPGA【正確答案】:D解析:

在分布式隱私保護機器學(xué)習系統(tǒng)中,F(xiàn)PGA可為其提供算力支持。50.下列哪些沒有使用Anchorbox?()A、FasterRCNNB、YOLOv1C、YOLOv2D、YOLOv3【正確答案】:B解析:

YOLOv1沒有使用Anchorbox51.批規(guī)范化(BatchNormalization)的好處都有啥?A、讓每一層的輸入的范圍都大致固定B、它將權(quán)重的歸一化平均值和標準差C、它是一種非常有效的反向傳播(BP)方法D、這些均不是【正確答案】:A解析:

052.盡管人工智能學(xué)術(shù)界出現(xiàn)“百家爭鳴”的局面,但是,當前國際人工智能的主流派仍屬于:A、連接主義B、符號主義C、行為主義D、經(jīng)驗主義【正確答案】:B解析:

盡管人工智能學(xué)術(shù)界出現(xiàn)“百家爭鳴”的局面,但是,當前國際人工智能的主流派仍屬于:符號主義53.Skip-gram在實際操作中,使用一個()(一般情況下,長度是奇數(shù)),從左到右開始掃描當前句子。A、過濾器B、滑動窗口C、篩選器D、掃描器【正確答案】:B解析:

見算法解析54.傳統(tǒng)機器學(xué)習和深度學(xué)習是人工智能核心技術(shù),在工程流程上略有差別,以下步驟在深度學(xué)習中不需要做的是A、模型評估B、特征工程C、數(shù)據(jù)清洗D、模型構(gòu)建【正確答案】:B解析:

055.使用批量歸一化可以解決以下哪種神經(jīng)網(wǎng)絡(luò)的訓(xùn)練A、過擬合OverfittingB、RestrictactivationstobecometoohighorlowC、訓(xùn)練過慢D、B和C都有【正確答案】:D解析:

056.如何對featuremaps繼續(xù)進行卷積操作?通過多通道卷積。假設(shè)上一個卷積層已得到3個3X3的featuremaps,3個2x2的卷積核可表示為具有三個通道卷積核立方體,生成一個()大小的featuremap。A、2X2B、3X3C、2X3D、6X6【正確答案】:A解析:

見算法解析57.如果問題存在最優(yōu)解,則下面幾種搜索算法中,()可以認為在這幾種算法中是“智能程度相對比較高”的算法。A、廣度優(yōu)先搜索B、深度優(yōu)先搜索C、有界深度優(yōu)先搜索D、啟發(fā)式搜索【正確答案】:D解析:

058.L1和L2正則化是傳統(tǒng)機器學(xué)習常用來減少泛化誤差的方法,以下關(guān)于兩者的說法正確的是:A、L1正則化可以做特征選擇B、L1和L2正則化均可做特征選擇C、L2正則化可以做特征選擇D、L1和L2正則化均不可做特征選擇【正確答案】:A解析:

059.企業(yè)要建立預(yù)測模型,需要準備建模數(shù)據(jù)集,以下四條描述建模數(shù)據(jù)集正確的是()。A、數(shù)據(jù)越多越好B、盡可能多的合適的數(shù)據(jù)C、訓(xùn)練集數(shù)據(jù)是建模集數(shù)據(jù)的一部分D、以上三條都正確【正確答案】:D解析:

060.以下函數(shù)中能將字符串格式的時間轉(zhuǎn)換為表示時間的浮點數(shù)的為A、time.mktime(time.strptime())B、pd.to_datetime()C、datetime.datetime.strptime()D、datetime.datetime.strftime()【正確答案】:A解析:

基礎(chǔ)概念61.形成以新一代人工智能重大科技項目為核心、現(xiàn)有研發(fā)布局為支撐的()人工智能項目群。A、“1+N”B、“1+5”C、“1+3”D、“1+6”【正確答案】:A解析:

形成以新一代人工智能重大科技項目為核心、現(xiàn)有研發(fā)布局為支撐的“1+N”人工智能項目群。62.以下關(guān)于L1正則化和L2正則化的說法正確的是?A、防止模型欠擬合而加在損失函數(shù)后面的一項B、L1范數(shù)符合拉普拉斯分布,是完全可微的C、L1正則化項是模型各個參數(shù)的平方和的開方值D、L1正則化可以產(chǎn)生稀疏權(quán)值矩陣,即產(chǎn)生一個稀疏模型,可以用于特征選擇【正確答案】:D解析:

A、防止模型過擬合而加在損失函數(shù)后面的一項;B、L1范數(shù)符合拉普拉斯分布,是不完全可微的;C、L2正則化項是模型各個參數(shù)的平方和的開方值。63.DSSM使用()個全連接層A、兩B、一C、三D、四【正確答案】:A解析:

DSSM使用兩個全連接層64.下列關(guān)于XGboost算法描述中錯誤的是A、由于其特殊原因,無法分布式化B、xgboost在代價函數(shù)里加入了正則項,用于控制模型的復(fù)雜度;C、可以處理帶有缺失值的樣本D、允許使用列抽樣來減少過擬合【正確答案】:A解析:

065.在CNN訓(xùn)練中,除了卷積偏置bias需要學(xué)習更新以外,()也是學(xué)習跟新的重要內(nèi)容A、learning_rateB、stepC、weightD、padding【正確答案】:C解析:

在CNN訓(xùn)練中,除了卷積偏置bias需要學(xué)習更新以外,weight也是學(xué)習跟新的重要內(nèi)容66.數(shù)據(jù)分析與數(shù)據(jù)可視化密不可分,在python中,哪個是常用數(shù)據(jù)可視化工具。A、pytorchB、numpyC、pyechartsD、json【正確答案】:C解析:

數(shù)據(jù)分析與數(shù)據(jù)可視化密不可分,在python中,pyecharts是常用數(shù)據(jù)可視化工具。67.下列屬于特征降維的方法有A、主成分分析PCAB、數(shù)據(jù)采樣C、正則化D、最小二乘法【正確答案】:A解析:

068.已知一組數(shù)據(jù)的協(xié)方差矩陣P,下面關(guān)于主分量說法錯誤的是()。A、主分量分析的最佳準則是對一組數(shù)據(jù)進行按一組正交基分解,在只取相同數(shù)量分量的條件下,以均方誤差計算截尾誤差最小B、在經(jīng)主分量分解后,協(xié)方差矩陣成為對角矩陣C、主分量分析就是K-L變換D、主分量是通過求協(xié)方差矩陣的特征值得到【正確答案】:C解析:

069.下列哪項關(guān)于模型能力(modelcapacity)的描述是正確的?(指神經(jīng)網(wǎng)絡(luò)模型能擬合復(fù)雜函數(shù)的能力)A、隱藏層層數(shù)增加,模型能力增加B、Dropout的比例增加,模型能力增加C、學(xué)習率增加,模型能力增加D、都不正確【正確答案】:A解析:

隱藏層加深,模型的擬合能力提升,但是模型參數(shù)會增多,帶來計算壓力;引入dropout就是為了免模型過擬合,學(xué)習率是超參數(shù),并不會影響模型的擬合度70.熵是為消除不確定性所需要獲得的信息量,投擲均勻正六面體骰子的熵是:A、1比特B、2.6比特C、3.2比特D、3.8比特【正確答案】:B解析:

071.數(shù)據(jù)清洗的方法不包括()A、缺失值處理B、噪聲數(shù)據(jù)清除C、一致性檢查D、重復(fù)數(shù)據(jù)記錄處理【正確答案】:D解析:

072.下述()不是人工智能中常用的知識格式化表示方法A、框架表示法B、產(chǎn)生式表示法C、語義網(wǎng)絡(luò)表示法D、形象描寫表示法【正確答案】:D解析:

知識表??法主要有:邏輯表?法、產(chǎn)?式表?法、框架表?法、語義?絡(luò)表?法、?向?qū)ο蟊?等等。答案選D73.下列哪項不是SVM的優(yōu)勢A、可以和核函數(shù)結(jié)合B、通過調(diào)參可以往往可以得到很好的分類效果C、訓(xùn)練速度快D、泛化能力好【正確答案】:C解析:

SVM的訓(xùn)練速度不快74.在主成分分析中,將幾個主分量經(jīng)過線性組合構(gòu)造為一個綜合評價函數(shù)時,每個主分量的權(quán)數(shù)為()。A、每個主分量的方差B、每個主分量的標準差C、每個主分量的方差貢獻率D、每個主分量的貢獻率【正確答案】:C解析:

在主成分分析中,將幾個主分量經(jīng)過線性組合構(gòu)造為一個綜合評價函數(shù)時,每個主分量的權(quán)數(shù)為每個主分量的方差貢獻率。75.以下關(guān)于人工神經(jīng)網(wǎng)絡(luò)(ANN)的描述錯誤的有()A、神經(jīng)網(wǎng)絡(luò)對訓(xùn)練數(shù)據(jù)中的噪聲非常魯棒B、可以處理冗余特征C、訓(xùn)練ANN是一個很耗時的過程D、至少含有一個隱藏層的多層神經(jīng)網(wǎng)絡(luò)【正確答案】:A解析:

076.在線性回歸算法中,我們認為誤差項是符合什么分布的()A、高斯分布B、均勻分布C、二項分布D、泊松分布【正確答案】:A解析:

077.下面()不是有效的變量名。A、_demoB、bananaC、NumbrD、my-score【正確答案】:D解析:

my-score不是有效的變量名。78.關(guān)于支持向量機,哪項說法不正確()A、支持向量機可以用于處理二分類及多分類問題B、支持向量機只能用于線性可分的分類問題C、支持向量機可用于回歸問題D、核函數(shù)的選擇對支持向量機的性能影響較大【正確答案】:B解析:

支持向量機可用用于線性可分的分類問題,也可于線性不可分的分類問題79.YOLOv3網(wǎng)格數(shù)為輸出特征圖[N,C,H,W]的()A、CB、C*HC、H*WD、nan【正確答案】:C解析:

見算法解析80.下列哪項屬于集成學(xué)習A、決策樹模型B、kNN分類C、AdaboostD、k-means【正確答案】:C解析:

Adaboost屬于集成學(xué)習81.下列哪個算法可以用于特征選擇()A、樸素貝葉斯B、感知器C、支持向量機D、決策樹【正確答案】:D解析:

見算法解析82.某單位開展?jié)撛谧兏秒娍蛻纛A(yù)測分析,以歷史上已完成過戶辦理的用戶作為模型的目標樣本,預(yù)測用戶是否過戶,該類預(yù)測分析屬于()預(yù)測A、分類B、數(shù)值C、聚類D、關(guān)聯(lián)【正確答案】:A解析:

083.下列哪個神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)會發(fā)生權(quán)重共享?A、卷積神經(jīng)網(wǎng)絡(luò)B、循環(huán)神經(jīng)網(wǎng)絡(luò)C、全連接神經(jīng)網(wǎng)絡(luò)D、選項A和B【正確答案】:D解析:

084.在遺傳算法中,變量x的定義域為[-2,5],要求其精度為10-6,現(xiàn)用二進制進行編碼,則碼長為()A、20B、21C、22D、23【正確答案】:D解析:

085.()曲線以precision、recall為橫縱坐標AP曲線B、PR曲線C、mAP曲線D、RoI曲線【正確答案】:B解析:

見算法解析86.下圖描述的網(wǎng)絡(luò)是()A、VGGB、GooLeNetC、ResNetD、Yolo【正確答案】:C解析:

下圖描述的網(wǎng)絡(luò)是ResNet87.假如你在訓(xùn)練一個線性回歸模型,有下面兩句話:1.如果數(shù)據(jù)量較少,容易發(fā)生過擬合。2.如果假設(shè)空間較小,容易發(fā)生過擬合。關(guān)于這兩句話,下列說法正確的是?A、1和2都錯誤B、1正確,2錯誤C、1錯誤,2正確D、1和2都正確【正確答案】:B解析:

如果數(shù)據(jù)量較少,容易在假設(shè)空間找到一個模型對訓(xùn)練樣本的擬合度很好,容易造成過擬合,該模型不具備良好的泛化能力。如果假設(shè)空間較小,包含的可能的模型就比較少,也就不太可能找到一個模型能夠?qū)颖緮M合得很好,容易造成高偏差、低方差,即欠擬合88.以下關(guān)于Bagging(裝袋法)的說法不正確的是A、能提升機器學(xué)習算法的穩(wěn)定性和準確性,但難以避免overfittingBagging(裝袋法)是一個統(tǒng)計重采樣的技術(shù),它的基礎(chǔ)是BootstrapC、主要通過有放回抽樣)來生成多個版本的預(yù)測分類器,然后把這些分類器進行組合D、進行重復(fù)的隨機采樣所獲得的樣本可以得到?jīng)]有或者含有較少的噪聲數(shù)據(jù)【正確答案】:A解析:

089.深度學(xué)習中神經(jīng)網(wǎng)絡(luò)類型很多,以下神經(jīng)網(wǎng)絡(luò)信息是單向傳播的是:A、LSTMB、卷積神經(jīng)網(wǎng)絡(luò)C、循環(huán)神經(jīng)網(wǎng)絡(luò)D、GRU【正確答案】:B解析:

卷積神經(jīng)網(wǎng)絡(luò)是單向傳播的90.對于有噪聲、線性可分的數(shù)據(jù),支持向量機的解決方式是()A、軟間隔B、硬間隔C、核函數(shù)D、以上選項均不正確【正確答案】:A解析:

對于有噪聲、線性可分的數(shù)據(jù),支持向量機的解決方式是軟間隔91.一條規(guī)則形如:,其中“←"左邊的部分稱為()A、規(guī)則長度B、規(guī)則頭C、布爾表達式D、規(guī)則體【正確答案】:B解析:

見算法解析92.常用到的的社交分析算法就是()A、社群發(fā)現(xiàn)B、社交發(fā)現(xiàn)C、社區(qū)發(fā)現(xiàn)D、群體發(fā)現(xiàn)【正確答案】:A解析:

常用到的的社交分析算法就是社群發(fā)現(xiàn)93.語句np.sum(arr3,axis=1)的作用是()?注:(已導(dǎo)入numpy庫)importnumpyasnpA、對整個數(shù)組求和B、對每一行求和C、對第1列求和D、對每一列求和【正確答案】:B解析:

見算法解析94.LSTM單元中引入了哪些門來更新當前時刻的單元狀態(tài)向量?A、輸入門、遺忘門B、任意門、輸入門C、輸出門、任意門D、遺忘門、任意門【正確答案】:A解析:

LSTM單元中引入了哪些門來更新當前時刻的單元狀態(tài)向量?95.()是計算機仿真系統(tǒng),通過對三維世界的模擬創(chuàng)造出全新的交互系統(tǒng)。A、虛擬現(xiàn)實B、增強現(xiàn)實C、混合現(xiàn)實D、強化現(xiàn)實【正確答案】:A解析:

虛擬現(xiàn)實是計算機仿真系統(tǒng),通過對三維世界的模擬創(chuàng)造出全新的交互系統(tǒng)。96.VGG-19中卷積核的大小為A、3x3B、5x5C、3x3,5x5D、不確定【正確答案】:A解析:

VGG-19中卷積核的大小為3x397.在神經(jīng)網(wǎng)絡(luò)學(xué)習中,每個神經(jīng)元會完成若干功能,下面哪個功能不是神經(jīng)元所能夠完成的功能A、對前序相鄰神經(jīng)元所傳遞信息進行加權(quán)累加B、對加權(quán)累加信息進行非線性變化(通過激活函數(shù))C、向前序相鄰神經(jīng)元反饋加權(quán)累加信息D、將加權(quán)累加信息向后續(xù)相鄰神經(jīng)元傳遞【正確答案】:C解析:

098.下面關(guān)于模型預(yù)測性能的評估以及交叉驗證,說法正確的是:A、在scikit-learn包里面使用交叉驗證方法,可以使用代碼:fromsklearnimportcross_validationB、需要把數(shù)據(jù)分成訓(xùn)練集和測試集,用測試集來評估從訓(xùn)練集學(xué)習得來的模型的預(yù)測性能,是因為從訓(xùn)練集學(xué)習得來的模型可能對于訓(xùn)練集的數(shù)據(jù)擬合得很好,但是對于訓(xùn)練集以外的數(shù)據(jù)沒有太大的泛化能力C、課程中的交叉驗證,把數(shù)據(jù)集分成了5份,其中4份作為訓(xùn)練集,剩下一份作為測試集,這種方法叫做留一交叉驗證法D、從訓(xùn)練集中得到的模型,用訓(xùn)練集的數(shù)據(jù)得到的預(yù)測準確率一般會比用測試集得到的預(yù)測準確率低【正確答案】:B解析:

099.循環(huán)神經(jīng)網(wǎng)在工業(yè)上最常用的兩種實現(xiàn)是:①.LSTM②.GRU③.CNN④.DNNA、①③B、①②C、①③D、①④【正確答案】:B解析:

CNN、DNN不屬于循環(huán)神經(jīng)網(wǎng)絡(luò)100.卷積核與特征圖的通道數(shù)的關(guān)系是:A、卷積核數(shù)量越多特征圖通道數(shù)越少B、卷積核size越大特征圖通道數(shù)越多C、卷積核數(shù)量越多特征圖通道數(shù)越多D、二者沒有關(guān)系【正確答案】:C解析:

卷積核數(shù)量越多特征圖通道數(shù)越多1.強化學(xué)習中的兩種免模型學(xué)習是()、()。A、逆強化學(xué)習B、時序差分學(xué)習C、蒙特卡羅強化學(xué)習D、模仿學(xué)習【正確答案】:BC解析:

在現(xiàn)實的強化學(xué)習任務(wù)中,環(huán)境的轉(zhuǎn)移概率、獎賞函數(shù)往往很難得知,甚至很難知道環(huán)境中一共有多少狀態(tài),若學(xué)習算法不依賴于環(huán)境建模,則稱為“免模型學(xué)習”,包括蒙特卡羅強化學(xué)習和時序差分學(xué)習2.下列哪些屬于頻繁模式挖掘算法()A、FP-growthB、DBSCANC、AprioriD、GDBT【正確答案】:AC解析:

見算法解析3.下列哪些組件是Resnet通常不包括的()A、殘差連接B、卷積單元C、循環(huán)連接D、Attention模塊【正確答案】:CD解析:

見算法解析4.下列哪些項用于對問題進行形式化A、感知B、初始狀態(tài)C、動作D、環(huán)境【正確答案】:BC解析:

05.對于lstm=paddle.nn.LSTM(input_size=3,hidden_size=5,num_layers=2),輸入數(shù)據(jù)的形狀可以是:A、[10,5,3]B、[5,10,3]C、[3,5,10]D、[3,10,5]【正確答案】:AB解析:

lstm輸入形狀為[batch_size,time_steps,input_size],即[..,..,3]6.DecisionTree構(gòu)造的重要步驟。A、特征選擇B、決策樹生成C、剪枝D、計算信息增益【正確答案】:ABC解析:

決策樹構(gòu)造只有特征選擇、決策樹生成、剪枝三個環(huán)節(jié)過程7.SVM中常用的核函數(shù)包括哪些?A、高斯核函數(shù)B、多項式核函數(shù)C、Sigmiod核函數(shù)D、線性核函數(shù)【正確答案】:ABCD解析:

SVM常用的核函數(shù)包括:線性核函數(shù)、多項式核函數(shù)、高斯核函數(shù)、Sigmiod核函數(shù)8.最常用的降維算法是PCA,以下哪項是關(guān)于PCA是正確的A、PCA是一種無監(jiān)督的方法B、.它搜索數(shù)據(jù)具有最大差異的方向C、主成分的最大數(shù)量D、.所有主成分彼此正交【正確答案】:ABCD解析:

PCA的原理是線性映射,簡單的說就是將高維空間數(shù)據(jù)投影到低維空間上,然后將數(shù)據(jù)包含信息量大的主成分保留下來,忽略掉對數(shù)據(jù)描述不重要的次要信息。而對于正交屬性空間中的樣本,如何用一個超平面對所有樣本進行恰當合適的表達呢?若存在這樣的超平面,應(yīng)該具有兩種性質(zhì):所有樣本點到超平面的距離最近,樣本點在這個超平面的投影盡可能分開9.屬于卷積神經(jīng)網(wǎng)絡(luò)(CNN)的有()。A、VGGNetB、ResNetC、AlexNetD、GoogleNet【正確答案】:ABCD解析:

010.機器學(xué)習的核心要素包括()A、算法B、算力C、操作人員D、數(shù)據(jù)【正確答案】:ABD解析:

操作人員并不是機器學(xué)習的核心要素。11.以下哪些是數(shù)據(jù)挖掘的特點:A、大量數(shù)據(jù)。數(shù)據(jù)挖掘所處理的數(shù)據(jù)量巨大,這也是數(shù)據(jù)挖掘方法和以前的數(shù)據(jù)分析方法不一樣的地方B、未知的有用的規(guī)律。數(shù)據(jù)挖掘所發(fā)現(xiàn)的模式或規(guī)律,應(yīng)該不是顯而易見的或無用地,而是對業(yè)務(wù)來說有意義的、隱含的模式或規(guī)律。C、是一個過程。他需要業(yè)務(wù)理解、數(shù)據(jù)理解、數(shù)據(jù)準備、建模、評估、部署等一系列步驟D、驗證已知的知識和規(guī)律【正確答案】:ABC解析:

012.關(guān)于聚類的描述正確的是()。A、聚類是一種非監(jiān)督式學(xué)習B、聚類是一種監(jiān)督式學(xué)習C、使用的數(shù)據(jù)不需要包含類別卷標D、使用的數(shù)據(jù)需要包含類別卷標【正確答案】:AC解析:

013.Python中的可變數(shù)據(jù)類型有A、字符串B、數(shù)字C、列表D、字典【正確答案】:CD解析:

014.關(guān)于冪律分布說法正確的事()A、對集成學(xué)習影響較大B、基于相空間的距離進行分類與回歸的效果都變差C、對k-means影響不大D、概率模型為基礎(chǔ)的算法影響相對比較小【正確答案】:BD解析:

015.下列算法哪些屬于K-means的變種?A、kNNB、MeanshiftC、k-means++D、以上都不是【正確答案】:BC解析:

見算法解析16.人工神經(jīng)元網(wǎng)絡(luò)與深度學(xué)習的關(guān)系是()A、人工神經(jīng)元網(wǎng)絡(luò)是深度學(xué)習的前身B、深度學(xué)習是人工神經(jīng)元網(wǎng)絡(luò)的一個分支C、深度學(xué)習是人工神經(jīng)元網(wǎng)絡(luò)的一個發(fā)展D、深度學(xué)習與人工神經(jīng)元網(wǎng)絡(luò)無關(guān)【正確答案】:AC解析:

深度學(xué)習是實現(xiàn)機器學(xué)習的一種技術(shù),現(xiàn)在所說的深度學(xué)習大部分都是指神經(jīng)網(wǎng)絡(luò)17.下列哪些模型可以E2E訓(xùn)練()A、YOLOv3B、YOLOv2C、RCNND、fastRCNN【正確答案】:ABD解析:

見算法解析18.屬于深度學(xué)習模型的選項是?A、樸素貝葉斯B、深度殘差網(wǎng)絡(luò)C、卷積神經(jīng)網(wǎng)絡(luò)CNND、循環(huán)神經(jīng)網(wǎng)絡(luò)RNN【正確答案】:BCD解析:

019.卷積神經(jīng)網(wǎng)絡(luò)中的池化層可以減小下層輸入的尺寸。常見的池化有哪些?A、最小池化層B、乘積池化層C、最大池化層D、平均池化層【正確答案】:CD解析:

卷積神經(jīng)網(wǎng)絡(luò)的池化層常用的兩種是最大池化層和平均池化層。20.決策樹學(xué)習算法包括哪幾個部分?A、特征選擇B、樹的生成C、分類決策規(guī)則D、樹的剪枝【正確答案】:ABD解析:

k近鄰算法的三要素:距離度量,k值選擇,分類決策規(guī)則21.RNN循環(huán)神經(jīng)網(wǎng)絡(luò)可以對一下那些場景進行處理()。A、自然語言處理B、圖像處理C、手寫體識別D、語音識別【正確答案】:ACD解析:

圖像處理場景主要應(yīng)用于CNN22.NMF(Non-negativeMatrixFactorization)是一種降維算法,它的特點包括A、原始矩陣的元素是非負數(shù)B、分解后矩陣的元素是非負數(shù)C、分解后矩陣的元素可以是負數(shù)D、沒有“潛在語義空間的每一個維度都是正交的”這一約束條件【正確答案】:ABD解析:

023.數(shù)據(jù)挖掘的主要功能包括概念描述、趨勢分析、孤立點分析及()等方面。A、挖掘頻繁模式B、分類和預(yù)測C、聚類分析D、偏差分析【正確答案】:ABCD解析:

024.在目標檢測中,以下能產(chǎn)生候選框的算法是()A、SelectiveSearchB、ROIpoolingC、RegionproposallayerD、C4.5【正確答案】:AC解析:

見算法解析25.深度學(xué)習目標檢測算法比傳統(tǒng)方法的優(yōu)勢()A、算法適應(yīng)性強B、更好的平衡精度C、可遷移學(xué)習D、數(shù)據(jù)需求少【正確答案】:ABC解析:

見算法解析26.人工神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)可分為()。A、并行網(wǎng)絡(luò)B、串行網(wǎng)絡(luò)C、前饋網(wǎng)絡(luò)D、反饋網(wǎng)絡(luò)【正確答案】:CD解析:

027.神經(jīng)網(wǎng)絡(luò)可以按()A、學(xué)習方式分類B、網(wǎng)絡(luò)結(jié)構(gòu)分類C、網(wǎng)絡(luò)的協(xié)議類型分類D、網(wǎng)絡(luò)的活動方式分類【正確答案】:ABD解析:

028.下面關(guān)于回歸、分類和聚類的說法,正確的是:A、通過網(wǎng)站上顧客的瀏覽行為和購買行為來細分不同類型的顧客,甚至發(fā)現(xiàn)潛在的顧客,這是一個分類問題B、通過房子的面積、臥室數(shù)、衛(wèi)生間數(shù)量、是否二手房等來預(yù)測房價,這是一個分類問題C、通過郵件的內(nèi)容來檢測收到的郵件不是不垃圾郵件,這是一個分類問題D、回歸和分類都屬于監(jiān)督學(xué)習,而聚類屬于無監(jiān)督學(xué)習【正確答案】:CD解析:

029.長短時記憶網(wǎng)絡(luò)在哪些領(lǐng)域有成功應(yīng)用A、語音識別B、圖片描述C、自然語言處理D、以上都不正確【正確答案】:ABC解析:

030.以下屬于角點提取的特征描述算法的有。A、CannyB、HOGC、SURFD、SIFT【正確答案】:BCD解析:

對特征的描述有很多種方法和算子,常見的有SIFT特征描述算子、SURF特征描述算子、ORB特征描述算子、HOG特征描述、LBP特征描述以及Harr特征描述。Canny算法是多級邊緣檢測算法。答案BCD31.噪聲數(shù)據(jù)的產(chǎn)生原因主要有:()A、數(shù)據(jù)采集設(shè)備有問題B、在數(shù)據(jù)錄入過程中發(fā)生了人為或計算機錯誤C、數(shù)據(jù)傳輸過程中發(fā)生錯誤D、由于命名規(guī)則或數(shù)據(jù)代碼不同而引起的不一致【正確答案】:ABCD解析:

032.大數(shù)據(jù)智能是新一代人工智能五個技術(shù)發(fā)展方向之一,其研究面向CPH(賽博、物理人類)三元空間的知識表達新體系,鏈接()A、實體B、技術(shù)C、行為D、關(guān)系【正確答案】:ACD解析:

見算法解析33.seq2seq主要由()和()組成,A、EncoderB、transformerC、DecoderD、dropper【正確答案】:AC解析:

見算法解析34.在隨機森林中,最終的集成模型是通過什么策略決定模型結(jié)果的?A、累加制B、求平均數(shù)C、投票制D、累乘制【正確答案】:BC解析:

035.決策樹構(gòu)建過程中剪枝的策略有A、預(yù)剪枝B、前剪枝C、后剪枝D、再剪枝【正確答案】:AC解析:

剪枝的策略有兩種:預(yù)剪枝和后剪枝。36.常用的盲目搜索方法是什么?A、隨機碰撞式搜索B、精確碰撞式搜索C、不完全式搜索D、完全式搜索【正確答案】:AD解析:

037.以下屬于多層前饋神經(jīng)網(wǎng)絡(luò)特點的是A、每層神經(jīng)元與下一層神經(jīng)元之間完全互連B、每層神經(jīng)元與下一層神經(jīng)元之間不完全互連C、神經(jīng)元之間不存在同層連接D、神經(jīng)元之間不存在跨層連接【正確答案】:ACD解析:

常用的神經(jīng)網(wǎng)絡(luò)稱為“多層前饋神經(jīng)網(wǎng)絡(luò)”(multi-layerfeedforwardneuralnetwork),該結(jié)構(gòu)滿足以下幾個特點:*每層神經(jīng)元與下一層神經(jīng)元之間完全互連*神經(jīng)元之間不存在同層連接*神經(jīng)元之間不存在跨層連接38.關(guān)于反向傳播算法,它的主要不足在于()。A、訓(xùn)練時間較長B、完全不能訓(xùn)練,訓(xùn)練時由于權(quán)值調(diào)整過大使得激活函數(shù)達到飽和C、易陷入局部極小值D、訓(xùn)練過程中,學(xué)習新樣本時有一網(wǎng)舊樣本的趨勢。【正確答案】:ABCD解析:

039.狀態(tài)估計的幾種常用算法()。A、高斯法B、最小二乘法C、快速分解法D、正交變換法【正確答案】:BCD解析:

040.哪些不能用來評估神經(jīng)網(wǎng)絡(luò)的計算模型對樣本的預(yù)測值與真實值之間的誤差大小A、優(yōu)化函數(shù)B、損失函數(shù)C、梯度下降D、反向傳播【正確答案】:ACD解析:

損失函數(shù)用來衡量神經(jīng)網(wǎng)絡(luò)的計算模型對樣本的預(yù)測值與真實值之間的誤差41.關(guān)于卷積神經(jīng)網(wǎng)絡(luò)池化層以下描述正確的是?A、池化操作采用掃描窗口實現(xiàn)B、池化層可以起到降維的作用C、常用的池化方法有最大池化和平均池化D、經(jīng)過池化的特征圖像變小了【正確答案】:ABCD解析:

池化是一種down-sampling技術(shù),本質(zhì)是基于滑動窗口的思想,可以去除特征圖中的冗余信息,降低特征圖的維度。常用的是最大池化和平均池化42.如下哪些是最近鄰分類器的特點()A、它使用具體的訓(xùn)練實例進行預(yù)測,不必維護源自數(shù)據(jù)的模型B、分類一個測試樣例開銷很大C、最近鄰分類器基于全局信息進行預(yù)測D、可以生產(chǎn)任意形狀的決策邊界【正確答案】:ABD解析:

043.除了問題本身的定義之外,使用問題特定知識的搜索策略被認為是A、啟發(fā)式搜索B、有信息搜索C、二元搜索D、無信息搜索【正確答案】:AB解析:

044.那種機器學(xué)習算法不需要對數(shù)據(jù)進行標注A、有監(jiān)督學(xué)習B、無監(jiān)督學(xué)習C、強化學(xué)習D、深度學(xué)習【正確答案】:BC解析:

無監(jiān)督學(xué)習和強化學(xué)習不需要標注45.聯(lián)想存儲的特點是()A、可以存儲許多相關(guān)(激勵,響應(yīng))模式對B、以分布、穩(wěn)健的方式存儲信息C、即使輸入激勵模式完全失真時,仍然可以產(chǎn)生正確的響應(yīng)模式D、可在原存儲中加入新的存儲模式【正確答案】:ABCD解析:

046.不使用全連接處理序列問題的原因是()A、時間步不能確定B、模型太簡單C、只能處理分類D、算法精度不足【正確答案】:ABD解析:

047.對股票漲跌方向的判斷,理論上下列哪些方法是可行的?()A、SVMB、DBSCANC、FP-growthD、決策樹【正確答案】:AD解析:

見算法解析48.使用KNN(K-NearestNeighbor)算法解決分類問題的步驟包括A、對未知數(shù)據(jù)進行正則化B、計算未知數(shù)據(jù)與已知標簽數(shù)據(jù)之間的距離C、得到距離未知數(shù)據(jù)最近的k個已知標簽數(shù)據(jù)D、通過已知標簽數(shù)據(jù)的數(shù)量進行多數(shù)表決,作為未知數(shù)據(jù)的分類結(jié)果【正確答案】:BCD解析:

049.專家系統(tǒng)知識表示的方法主要有哪些?A、邏輯表示法(謂詞表示法)B、框架C、產(chǎn)生式D、語義網(wǎng)絡(luò)【正確答案】:ABCD解析:

050.以下哪些聚類算法屬于基于原型的聚類()。A、模糊C均值B、EM算法C、SOMD、CLIQUE【正確答案】:ABC解析:

051.以下哪些是專家系統(tǒng)結(jié)構(gòu)的一部分?A、知識庫B、推理機C、動態(tài)數(shù)據(jù)庫D、解釋模塊【正確答案】:ABCD解析:

專家系統(tǒng)的結(jié)構(gòu)包含人機界面、知識庫、推理機、動態(tài)數(shù)據(jù)庫、知識庫答理系統(tǒng)和解釋模塊。52.假設(shè)我們要解決一個二類分類問題,我們已經(jīng)建立好了模型,輸出是0或1,初始時設(shè)閾值為0.5,超過0.5概率估計,就判別為1,否則就判別為0;如果我們現(xiàn)在用另一個大于0.5的閾值,那么現(xiàn)在關(guān)于模型說法,正確的是A、模型分類的召回率不變B、模型分類的召回率會升高C、模型分類準確率會升高或不變D、模型分類準確率降低【正確答案】:AC解析:

準確率:即預(yù)測結(jié)果正確的百分比。精確率(查準率):預(yù)測結(jié)果為正例樣本中真實為正例的比例(查得準)。召回率(查全率):真實為正例的樣本中預(yù)測結(jié)果為正例的比例(查的全,對正樣本的區(qū)分能力。F-score:在實踐中,我們定義了新的指標去“綜合”這兩個指標。具體的定義如公式(3),從數(shù)學(xué)上來看,它其實是查準率與查全率的調(diào)和平均數(shù)。對于二元分類問題,F(xiàn)-score綜合考慮了預(yù)測結(jié)果的查準率和查全率,是一個比較好的評估指標。53.下列無監(jiān)督學(xué)習算法中可解決降維問題的算法有A、PCAB、LSAC、LDAD、k-means【正確答案】:ABC解析:

k-means只能解決聚類問題54.下列有監(jiān)督學(xué)習算法中可解決回歸問題的算法包括A、線性回歸B、邏輯回歸C、神經(jīng)網(wǎng)絡(luò)D、隨機森林【正確答案】:ACD解析:

邏輯回歸無法解決回歸問題55.對股價的預(yù)測,下列哪些方法是可行的()A、kNNB、SVRC、線性回歸D、邏輯回歸【正確答案】:BC解析:

見算法解析56.圖像數(shù)字化需要經(jīng)過的步驟包括A、采樣B、裁剪C、量化D、旋轉(zhuǎn)【正確答案】:AC解析:

見算法解析57.現(xiàn)代的卷積神經(jīng)網(wǎng)絡(luò),常用的模塊包括哪些()A、多分枝結(jié)構(gòu)B、殘差連接C、BatchNormalizationD、Sigmoid激活函數(shù)【正確答案】:ABC解析:

見算法解析58.下列哪些方法的輸出結(jié)果,通常包含boundingbox?()A、MTCNNB、FasterRCNNC、MaskRCNND、AlexNet【正確答案】:ABC解析:

見算法解析59.產(chǎn)生式系統(tǒng)的組成部分包括()A、狀態(tài)空間B、綜合數(shù)據(jù)庫C、規(guī)則集D、控制策略【正確答案】:BCD解析:

060.卷積神經(jīng)網(wǎng)絡(luò)中典型的模式是?A、卷積層后為池化層,然后還是卷積層-池化層。B、多個連續(xù)的池化層,然后跟著一個卷積層C、網(wǎng)絡(luò)中最后的幾個層是全連接層D、網(wǎng)絡(luò)中最開始的幾個層是全連接層【正確答案】:AC解析:

一般卷積層后為池化層,網(wǎng)絡(luò)最后為幾個全連接層。61.梯度為0的點可以是()A、局部最優(yōu)解B、全局最優(yōu)解C、鞍點D、轉(zhuǎn)折點【正確答案】:ABC解析:

062.防止過擬合的方法有A、增加訓(xùn)練數(shù)據(jù)B、減少特征值C、正則化D、追求損失函數(shù)的最小【正確答案】:ABC解析:

063.深度學(xué)習中以下哪些步驟是由模型自動完成的?A、模型訓(xùn)練B、特征選擇C、分析定位任務(wù)D、特征提取【正確答案】:BD解析:

064.正則化是傳統(tǒng)機器學(xué)習中重要且有效的減少泛化誤差的技術(shù),以下技術(shù)屬于正則化技術(shù)的是A、L1正則化B、L2正則化C、DropoutD、動量優(yōu)化器【正確答案】:ABC解析:

正則化和優(yōu)化策略是深度學(xué)習的兩個重要部分,L1、L2正則化和Dropout屬于正則化,而動量優(yōu)化屬于優(yōu)化策略。65.長短時記憶網(wǎng)絡(luò)中具有三個重要開關(guān),我們稱為A、記憶門B、輸入門C、輸出門D、遺忘門【正確答案】:BCD解析:

066.經(jīng)典邏輯推理有哪些?A、自然演繹推理B、歸結(jié)演繹推理C、不確定與非單調(diào)推理D、與、或形演繹推理【正確答案】:ABD解析:

067.選擇下列哪些方法可以用于表示表示智能體的狀態(tài)A、結(jié)構(gòu)式B、模塊式C、網(wǎng)絡(luò)式D、因子式【正確答案】:AD解析:

068.在機器學(xué)習中,如果單純?nèi)ヌ岣哂?xùn)練數(shù)據(jù)的預(yù)測能力,所選模型的復(fù)雜度往往會很高,這種現(xiàn)象稱為過擬合對于產(chǎn)生這種現(xiàn)象以下說法正確的是()A、樣本數(shù)量太少B、樣本數(shù)量過多C、模型太復(fù)雜D、模型太簡單【正確答案】:AC解析:

見算法解析69.基因知識圖譜具備以下哪幾種能力?A、輔助病例診斷B、疾病預(yù)測及診斷C、基因檢測報告生成D、實體查詢【正確答案】:ACD解析:

070.淺層神經(jīng)網(wǎng)絡(luò)與深度神經(jīng)網(wǎng)絡(luò)比較,其區(qū)別之處是A、淺層結(jié)構(gòu)算法:其局限性在于有限樣本和計算單元情況下對復(fù)雜函數(shù)的表示能力有限,針對復(fù)雜分類問題其泛化能力受到一定制約B、深度學(xué)習可通過學(xué)習一種深層非線性網(wǎng)絡(luò)結(jié)構(gòu),實現(xiàn)復(fù)雜函數(shù)逼近,表征輸入數(shù)據(jù)分布式表示,并展現(xiàn)了強大的從少數(shù)樣本集中學(xué)習數(shù)據(jù)集本質(zhì)特征的能力C、深度學(xué)習多層的好處是可以用較少的參數(shù)表示復(fù)雜的函數(shù)D、深度學(xué)習的實質(zhì),是通過構(gòu)建具有很多隱層的機器學(xué)習模型和海量的訓(xùn)練數(shù)據(jù),來學(xué)習更有用的特征,從而最終提升分類或預(yù)測的準確性【正確答案】:ABCD解析:

淺層結(jié)構(gòu)算法:其局限性在于有限樣本和計算單元情況下對復(fù)雜函數(shù)的表示能力有限,針對復(fù)雜分類問題其泛化能力受到一定制約,深度學(xué)習可通過學(xué)習一種深層非線性網(wǎng)絡(luò)結(jié)構(gòu),實現(xiàn)復(fù)雜函數(shù)逼近,表征輸入數(shù)據(jù)分布式表示,并展現(xiàn)了強大的從少數(shù)樣本集中學(xué)習數(shù)據(jù)集本質(zhì)特征的能力,深度學(xué)習多層的好處是可以用較少的參數(shù)表示復(fù)雜的函數(shù),深度學(xué)習的實質(zhì),是通過構(gòu)建具有很多隱層的機器學(xué)習模型和海量的訓(xùn)練數(shù)據(jù),來學(xué)習更有用的特征,從而最終提升分類或預(yù)測的準確性71.若使用深度學(xué)習處理語義分類任務(wù),在處理變長數(shù)據(jù)時,我們通常采取()。A、截斷過長語句B、填充隨機數(shù)C、填充特殊詞語D、不處理【正確答案】:AC解析:

深度學(xué)習處理長語句的常用手段72.集成學(xué)習模型的集成方式有A、同質(zhì)集成B、異質(zhì)集成C、本質(zhì)集成D、泛化集成【正確答案】:AB解析:

若個體學(xué)習器都屬于同一類別,例如都是決策樹或都是神經(jīng)網(wǎng)絡(luò),則稱該集成為同質(zhì)的(homogeneous);若個體學(xué)習器包含多種類型的學(xué)習算法,例如既有決策樹又有神經(jīng)網(wǎng)絡(luò),則稱該集成為異質(zhì)的(heterogenous)。73.下列哪些網(wǎng)用到了殘差連接A、FastTextBERTC、GoogLeNetD、ResNet【正確答案】:BD解析:

見算法解析74.以下關(guān)于機器學(xué)習算法與傳統(tǒng)基于規(guī)則方法的區(qū)別中正確的是?A、傳統(tǒng)的基于規(guī)則的方法,其中的規(guī)律可以人工顯性的明確出來B、傳統(tǒng)基于規(guī)則的方法使用顯性編程來解決問題C、機器學(xué)習中模型的映射關(guān)系是自動學(xué)習的D、機器學(xué)習所中模型的映射關(guān)系必須是隱性的【正確答案】:ABC解析:

075.下面屬于數(shù)據(jù)集的一般特性的有:()A、連續(xù)性B、維度C、稀疏性D、相異性【正確答案】:BC解析:

076.神經(jīng)網(wǎng)絡(luò)解決非線性分類,是通過()A、構(gòu)造神經(jīng)網(wǎng)絡(luò)B、用激活函數(shù)C、訓(xùn)練權(quán)重矩陣D、讓損失最大化【正確答案】:ABC解析:

077.漢語的演化史表明,量詞的真實功用可能與()沒有任何關(guān)系A(chǔ)、隱喻機制B、個體化機制C、單復(fù)數(shù)區(qū)分D、補足音素【正確答案】:BC解析:

見算法解析78.下列選項屬于靜態(tài)圖缺點的是()A、代碼編寫較為簡潔和方便B、計算圖構(gòu)建很長時間后才提示錯誤C、無法使用pdb或print語句調(diào)試執(zhí)行D、控制流與Python不同,造成一定的學(xué)習門檻【正確答案】:BCD解析:

見算法解析79.下面關(guān)于隨機森林和集成學(xué)習的說法,正確的是:A、隨機森林只能用于解決分類問題B、隨機森林由隨機數(shù)量的決策樹組成C、集成學(xué)習通過構(gòu)建多個模型,并將各個模型的結(jié)果使用求平均數(shù)的方法集成起來,作為最終的預(yù)測結(jié)果,提高分類問題的準確率D、隨機森林的弱分類器(基分類器)的特征選擇是隨機的【正確答案】:CD解析:

080.以下說法正確的是()。A、聚類是監(jiān)督學(xué)習B、聚類是非監(jiān)督學(xué)習C、分類是非監(jiān)督學(xué)習D、分類是監(jiān)督學(xué)習【正確答案】:BD解析:

081.下列是svm核函數(shù)的是()A、多項式核函數(shù)B、logistic核函數(shù)C、徑向基核函數(shù)D、sigmoid核函數(shù)【正確答案】:ACD解析:

082.vgg19中的19代表了網(wǎng)絡(luò)中哪些層的數(shù)目總和()A、全連接層B、輸入層C、池化層D、卷積層【正確答案】:ACD解析:

vgg19是常用的卷積神經(jīng)網(wǎng)絡(luò)之一,包括16層卷積層和3層全連接層,中間用到池化層83.可以有效解決過擬合的方法包括()A、增加樣本數(shù)量B、增加特征數(shù)量C、訓(xùn)練更多的迭代次數(shù)D、采用正則化方法【正確答案】:AD解析:

見算法解析84.下列選項中,哪項是可以用于數(shù)據(jù)采集的技術(shù)?A、FlumeB、HiveC、KafkaD、Mahout【正確答案】:AC解析:

Hive和Mahout主要用于數(shù)據(jù)的分析式處理85.決策樹最常用的算法有A、ID3B、C4.5CARTD、ID4.5【正確答案】:ABC解析:

決策樹最常用的算法有三種:ID3,C4.5和CART。86.下面關(guān)于邏輯回歸的說法,正確的是:A、邏輯回歸主要應(yīng)用于二分類問題B、邏輯回歸使用LogisticFunction后得到的數(shù)值在-1到1之間C、把邏輯回歸應(yīng)用于多分類問題時,需要使用Onevs.Rest方法D、邏輯回歸得到的數(shù)值可以看作屬于類別1的概率【正確答案】:ACD解析:

087.下面關(guān)于決策樹的說法,正確的是:A、決策樹有二叉樹和多叉樹B、建立決策樹模型的時候,可能不需要用到數(shù)據(jù)集中的所有特征來建立決策樹節(jié)點的分裂規(guī)則C、決策樹子節(jié)點分裂時,選擇的是最優(yōu)的特征進行分裂D、決策樹只能用于分類【正確答案】:ABC解析:

088.關(guān)于遺傳算法和進化策略,下列說法正確的是A、遺傳算法同時使用交叉和突變操作B、進化策略僅使用交叉操作C、進化策略不需要用編碼的形式來表示問題D、進化策略使用純粹的數(shù)值優(yōu)化計算【正確答案】:ACD解析:

遺傳算法根據(jù)問題域中個體的適應(yīng)度大小,按照輪盤賭的方法選擇個體,在完成選擇后,還需要進行組合交叉和變異,產(chǎn)生出代表新的解集的種群。A項正確。遺傳算法采用二進制編碼雜交;而進化策略使用實數(shù)。CD正確。進化策略的每個個體都具有兩個特點。1、基因,通過基因進行運算可以得到每個個體的適應(yīng)度。2、變異強度,變異強度則是每次基因雜交完,基因變化的一個范圍。B項錯誤。答案ACD89.在卷積神經(jīng)網(wǎng)絡(luò)中,一個10*10的像素在使用5*5的卷積核進行池化,在不補零的情況下能得到以下哪些大小的featuremapA、2*2B、4*4C、6*6D、8*8【正確答案】:ABC解析:

H(output)=(H(input)?F)/S+1;W(output)=(Winput?F)/S+190.人工智能算法中,決策樹分類算法包括A、C4.5B、ID3C、SGDD、CART【正確答案】:ABD解析:

常見決策樹分類算法包括C4.5,ID3,CART。SGD隨機梯度下降算法屬于降維算法。91.為增加模型的泛化能力,可以使用下列哪些方法A、L1正則化B、L2正則化C、DropoutD、增加訓(xùn)練集樣本數(shù)量【正確答案】:ABCD解析:

4種方法均可92.機器翻譯的局限性在于()A、訓(xùn)練樣本單一B、只能處理簡單句C、基于已有的既成案例D、錯誤較多【正確答案】:BC解析:

見算法解析93.大規(guī)模關(guān)系分析場景下,以下哪個選項屬于海量關(guān)系處理的三高需求()A、對海量數(shù)據(jù)的高效關(guān)系發(fā)現(xiàn)需求B、對海量數(shù)據(jù)的高效共享需求C、對海量數(shù)據(jù)的高效存儲和訪問需求D、對關(guān)系分析平臺的高可擴展性和高可用性【正確答案】:ACD解析:

094.英語重視哪兩個問題的區(qū)分?()A、謂語與非謂語B、可數(shù)名詞與不可數(shù)名詞C、冠詞與數(shù)詞D、單復(fù)數(shù)【正確答案】:BD解析:

見算法解析95.Svm適用于以下哪種數(shù)據(jù)集()A、線性可分的數(shù)據(jù)集B、含有很多噪聲和重疊的數(shù)據(jù)C、經(jīng)過清洗較為干凈的數(shù)據(jù)D、以上數(shù)據(jù)都適用【正確答案】:AB解析:

096.對于樸素貝葉斯分類器,下面說法正確的是()A、適用于小規(guī)模數(shù)據(jù)集B、適用于多分類任務(wù)C、適合增量式訓(xùn)練D、對輸入數(shù)據(jù)的表達形式不敏感【正確答案】:ABC解析:

097.關(guān)于線性回歸說法正確的是()A、輸入特征是非隨機的且互不相關(guān)的B、隨機誤差具有零均值,同方差的特點C、隨機誤差彼此間不相關(guān)D、輸入特征于隨機誤差不相關(guān)【正確答案】:ABCD解析:

098.下列說法正確的是()A、k折劃分后,得到的是分組后的索引值B、LOO計算開銷更少C、LOO比k折效果更差D、k折劃分后,得到的是分組后的元素【正確答案】:AC解析:

099.以下屬于深度學(xué)習算法的是A、CNNB、FCMC、FPND、GCN【正確答案】:ACD解析:

FCM算法是聚類算法,不是深度學(xué)習算法100.數(shù)據(jù)真實性具備哪兩種特質(zhì)?A、準確性B、不確定性C、可信賴度D、雜亂性【正確答案】:AC解析:

01.大數(shù)據(jù)要跟“互聯(lián)網(wǎng)+醫(yī)療健康”緊密地結(jié)合起來,國家明確的支持“互聯(lián)網(wǎng)+醫(yī)療”、“互聯(lián)網(wǎng)+健康”所以在新的醫(yī)改背景下,互聯(lián)網(wǎng)醫(yī)療跟大數(shù)據(jù)的結(jié)合將會取得更重要的發(fā)展A、正確B、錯誤【正確答案】:A解析:

正確2.訓(xùn)練循環(huán)神經(jīng)網(wǎng)絡(luò)的算法是BPTTA、正確B、錯誤【正確答案】:A解析:

正確3.LR的損失函數(shù)為hingeloss(或者說是邏輯損失都可以)、而SVM的損失函數(shù)為Log損失。A、正確B、錯誤【正確答案】:B解析:

錯誤4.Python標準庫os中的方法isdir()可以用來測試給定的路徑是否為文件夾。A、正確B、錯誤【正確答案】:A解析:

正確5.u-net也是采用了encoder-decoder這一結(jié)構(gòu)A、正確B、錯誤【正確答案】:A解析:

正確6.人工智能技術(shù)已經(jīng)由原本的單一化輸出向全套解決方案轉(zhuǎn)變,其滲透性也不斷減弱A、正確B、錯誤【正確答案】:B解析:

人工智能技術(shù)已經(jīng)由原本的單一化輸出向全套解決方案轉(zhuǎn)變,其滲透性也不斷增強7.語音識別技術(shù)就是讓機器通過處理和識別過程,把語音信號轉(zhuǎn)變?yōu)橄鄳?yīng)的文本或信息的高技術(shù)A、正確B、錯誤【正確答案】:A解析:

正確8.對于多分類問題神經(jīng)網(wǎng)絡(luò)一般使用歐氏距離損失而不用交叉熵A、正確B、錯誤【正確答案】:B解析:

分類問題常用的損失函數(shù)為交叉熵9.在GBK和CP936編碼中一個漢字需要2個字節(jié)。A、正確B、錯誤【正確答案】:A解析:

正確10.Python標準庫os中的方法listdir()返回包含指定路徑中所有文件和文件夾A、正確B、錯誤【正確答案】:A解析:

正確11.人工智能就是機器展現(xiàn)出的智能,即只要是某種機器,具有某種或某些智能的特征或表現(xiàn),都應(yīng)該算作“人工智能”A、正確B、錯誤【正確答案】:A解析:

正確12.在處理序列數(shù)據(jù)時,較容易出現(xiàn)梯度消失現(xiàn)象的模型是RNN。A、正確B、錯誤【正確答案】:A解析:

RNN有短期記憶問題,無法處理很長的輸入序列,訓(xùn)練RNN需要投入極大的成本13.目標檢測的主要目的是讓計算機可以自動識別圖片或者視頻幀中所有目標的類別,并在該目標周圍繪制邊界框,標示出每個目標的位置A、正確B、錯誤【正確答案】:A解析:

正確14.基于規(guī)則的AI系統(tǒng)由一連串的if-then-else規(guī)則來進行推斷或行動決策。()A、正確B、錯誤【正確答案】:A解析:

015.人工智能技術(shù)可通過對特征庫學(xué)習自動查找系統(tǒng)漏洞和識別關(guān)鍵目標,提高攻擊效率。A、正確B、錯誤【正確答案】:A解析:

正確16.當在內(nèi)存網(wǎng)絡(luò)中獲得某個內(nèi)存空間時,通常選擇讀取矢量形式數(shù)據(jù)而不是標量,這里需要基于內(nèi)容的尋址或基于位置的尋址來完成A、正確B、錯誤【正確答案】:B解析:

017.購物籃模型(maket-basketmodel):用于描述兩種對象之間的一對多關(guān)系A(chǔ)、正確B、錯誤【正確答案】:B解析:

多對多關(guān)系18.Mapreduce適用于可以串行處理的應(yīng)用程序A、正確B、錯誤【正確答案】:B解析:

019.根據(jù)發(fā)音對象不同,語音識別可以分為特定人語音識別和非特定人語音識別A、正確B、錯誤【正確答案】:A解析:

正確20.Python2.x和Python3.x中input()函數(shù)的返回值都是字符串。A、正確B、錯誤【正確答案】:B解析:

見函數(shù)庫21.LSTM單元中,輸入門控制當前信息的注入,遺忘門過濾上個時刻的不重要信息,然后兩者處理后的信息相加后更新當前時刻的狀態(tài)向量A、正確B、錯誤【正確答案】:A解析:

正確22.相較于機器學(xué)習經(jīng)典的有監(jiān)督學(xué)習、無監(jiān)督學(xué)習問題,強化學(xué)習最大的特點是在交互中學(xué)習A、正確B、錯誤【正確答案】:A解析:

正確23.計算機視覺的主要研究方向分為圖像分類、目標檢測、目標跟蹤和語義分割A(yù)、正確B、錯誤【正確答案】:A解析:

正確24.用于分類與回歸應(yīng)用的主要算法有決策樹、BP神經(jīng)網(wǎng)絡(luò)、貝葉斯A、正確B、錯誤【正確答案】:A解析:

025.bagging不允許訓(xùn)練實例被同一個預(yù)測器多次采樣。A、正確B、錯誤【正確答案】:B解析:

允許26.Kmean模型能自動生成K個聚類中心A、正確B、錯誤【正確答案】:B解析:

錯誤27.鼓勵人工智能企業(yè)參與或主導(dǎo)制定國際標準,加強人工智能領(lǐng)域的知識產(chǎn)權(quán)保護,建立人工智能公共專利池,促進人工智能新技術(shù)的利用與擴散A、正確B、錯誤【正確答案】:A解析:

正確28.訓(xùn)練CNN時,可以對輸入進行旋轉(zhuǎn)、平移、縮放等預(yù)處理提高模型泛化能力A、正確B、錯誤【正確答案】:A解析:

029.DSSM模型的結(jié)構(gòu)是三塔A、正確B、錯誤【正確答案】:B解析:

雙塔30.深度學(xué)習與機器學(xué)習算法之間的區(qū)別在于,后者過程中無需進行特征提取工作,也就是說,我們建議在進行深度學(xué)習過程之前要首先完成特征提取的工作。A、正確B、錯誤【正確答案】:B解析:

031.AdaGrad使用的是一階差分(firstorderdifferentiation)A、正確B、錯誤【正確答案】:A解析:

032.根據(jù)覆蓋面不同,知識圖譜可以分為通用知識圖譜、行業(yè)知識圖譜A、正確B、錯誤【正確答案】:A解析:

正確33.SPPTextMining是文本挖掘的工具A、正確B、錯誤【正確答案】:B解析:

034.Sigmoid是早期神經(jīng)網(wǎng)絡(luò)模型中常見的非線性變換函數(shù)A、正確B、錯誤【正確答案】:A解析:

正確35.谷歌研究提出,隨著訓(xùn)練數(shù)據(jù)數(shù)量級的增加,相同機器視覺算法模型的性能呈指數(shù)上升。A、正確B、錯誤【正確答案】:B解析:

歌研究提出,隨著訓(xùn)練數(shù)據(jù)數(shù)量級的增加,相同機器視覺算法模型的性能呈線性上升。36.Inception塊的設(shè)計思想:多通路(multi-path)設(shè)計形式,使用不同大小的卷積核提取圖像特征,并附加最大池化操作,將這四個輸出層沿著通道這一維度進行拼接。最終輸出特征圖將包含不同大小的卷積核提取到的特征A、正確B、錯誤【正確答案】:A解析:

正確37.如果需要連接大量字符串成為一個字符串,那么使用字符串對象的join()方法比運算符+具有更高的效率。A、正確B、錯誤【正確答案】:A解析:

正確38.飛槳支持兩種深度學(xué)習建模編寫方式,更方便調(diào)試的動態(tài)圖模式和性能更好并便于部署的靜態(tài)圖模式A、正確B、錯誤【正確答案】:A解析:

正確39.在UTF-8編碼中一個漢字需要占用3個字節(jié)。A、正確B、錯誤【正確答案】:A解析:

正確40.計算機視覺中最基本的幾個子任務(wù)是:圖像分類、物體檢測、圖像語義分割和實例分割A(yù)、正確B、錯誤【正確答案】:A解析:

正確41.LSTM是一個非常經(jīng)典的面向序列的模型,可以對自然語言句子或是其他時序信號進行建模,是一種循環(huán)神經(jīng)網(wǎng)絡(luò)。A、正確B、錯誤【正確答案】:A解析:

正確42.Gini指數(shù)越大表示集合中被選中的樣本被分錯的概率越小,也就是說集合的純度越高。A、正確B、錯誤【正確答案】:B解析:

注意:Gini指數(shù)越小表示集合中被選中的樣本被分錯的概率越小,也就是說集合的純度越高,反之,集合越不純。43.自然語言處理主要分為兩個流程:自然語言理解和自然語言生成A、正確B、錯誤【正確答案】:A解析:

正確44.人工智能是對人的意識和思維過程的模擬,利用機器學(xué)習和數(shù)據(jù)分析方法賦予機器類人的能力A、正確B、錯誤【正確答案】:A解析:

正確45.虛擬現(xiàn)實技術(shù)具有多感知性、沉浸性、交互性等特征A、正確B、錯誤【正確答案】:A解析:

正確46.機器學(xué)習,有學(xué)習能力,通過答案+數(shù)據(jù)=規(guī)則,正確率不斷提升()A、正確B、錯誤【正確答案】:A解析:

正確47.卷積神經(jīng)網(wǎng)絡(luò)是更善于處理圖像的網(wǎng)絡(luò)A、正確B、錯誤【正確答案】:A解析:

正確48.Python字典中的“鍵”可以是元組。A、正確B、錯誤【正確答案】:A解析:

正確49.數(shù)據(jù)集太小,數(shù)據(jù)樣本不足時,深度學(xué)習相對其它機器學(xué)習算法,有明顯優(yōu)勢。A、正確B、錯誤【正確答案】:B解析:

錯誤50.卷積神經(jīng)網(wǎng)絡(luò)的并發(fā)性,比循環(huán)神經(jīng)網(wǎng)絡(luò)好A、正確B、錯誤【正確答案】:A解析:

正確51.PSP網(wǎng)絡(luò)獲取上下文信息的關(guān)鍵在于增大感受野A、正確B、錯誤【正確答案】:A解析:

正確52.混沌度(Perplexity)是一種常見的應(yīng)用在使用深度學(xué)習處理NLP問題過程中的評估技術(shù),混沌度越高越好A、正確B、錯誤【正確答案】:B解析:

053.從產(chǎn)業(yè)鏈的角度來講,人工智能分為三層,由基礎(chǔ)層、過程層、應(yīng)用層組成A、正確B、錯誤【正確答案】:B解析:

人工智能產(chǎn)業(yè)鏈包括三層:基礎(chǔ)層、技術(shù)層和應(yīng)用層54.人工智能研究的先驅(qū)者認為人的智能主要表現(xiàn)在人能學(xué)習知識和運用知識上,知識是智能的基礎(chǔ)于是學(xué)者們把專門的知識集、規(guī)則集和附加過程組成知識庫,開發(fā)出許多專家系統(tǒng)(英文縮寫為ES),在領(lǐng)域獲得成功()A、正確B、錯誤【正確答案

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論