工匠杯練習(xí)試卷附答案_第1頁(yè)
工匠杯練習(xí)試卷附答案_第2頁(yè)
工匠杯練習(xí)試卷附答案_第3頁(yè)
工匠杯練習(xí)試卷附答案_第4頁(yè)
工匠杯練習(xí)試卷附答案_第5頁(yè)
已閱讀5頁(yè),還剩72頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

第頁(yè)工匠杯練習(xí)試卷附答案1.如果要清空文件,需要使用的命令是()。A、close()B、seek(0)C、truncate(0)Dwrite('stuff')【正確答案】:C解析:

truncate(size)方法將截?cái)辔募?,大小為size,size為0即清空2.__new__和__init__的區(qū)別,說(shuō)法不正確的是()。A、__new__是一個(gè)實(shí)例方法,而__init__是一個(gè)靜態(tài)方法B、__new__方法會(huì)返回一個(gè)創(chuàng)建的實(shí)例,而__init__什么都不返回C、只有在__new__返回一個(gè)cls的實(shí)例時(shí),后面的__init__才能被調(diào)用D、當(dāng)創(chuàng)建一個(gè)新實(shí)例時(shí)調(diào)用__new__,初始化一個(gè)實(shí)例時(shí)用__init__【正確答案】:A解析:

__init__是一個(gè)實(shí)例方法,而__new__是一個(gè)靜態(tài)方法。3.matplotlib中的legend函數(shù)作用是什么()。A、設(shè)置標(biāo)簽文本B、繪制網(wǎng)格線C、標(biāo)示不同圖形的文本標(biāo)簽圖例D、設(shè)置x軸的數(shù)值顯示范圍【正確答案】:C解析:

legend用于添加圖例。4.Numpy.array數(shù)組的簡(jiǎn)稱是()。A、arrayB、nparrayC、NdarrayD、pyarray【正確答案】:C解析:

Numpy的array數(shù)組類被調(diào)用的是N維數(shù)組對(duì)象Ndarray。5.()在劃分屬性時(shí)是在當(dāng)前結(jié)點(diǎn)的屬性集合中選擇一個(gè)最優(yōu)屬性。AdaBoostB、RFC、BaggingD、傳統(tǒng)決策樹(shù)【正確答案】:D解析:

傳統(tǒng)決策樹(shù)在選擇劃分屬性時(shí),是在當(dāng)前節(jié)點(diǎn)的屬性集合中選擇一個(gè)最優(yōu)屬性進(jìn)行劃分。6.評(píng)估完模型后,我們發(fā)現(xiàn)模型中有很高的偏差。我們?cè)鯓觼?lái)減少這個(gè)偏差?A、減少模型中特征的數(shù)量B、增加模型中特征的數(shù)量C、增加模型中的數(shù)據(jù)點(diǎn)D、以上所有【正確答案】:B7.a=np.arange(10),a[2:4]截取到的數(shù)組為()。A、[1,2,3]B、[2,3,4]C、[2,3]D、[1,2]【正確答案】:C解析:

np.arange(10)創(chuàng)建從0-9的一維數(shù)組,數(shù)組切片下表索引從0開(kāi)始。8.隨機(jī)試驗(yàn)所有可能出現(xiàn)的結(jié)果,稱為()A、基本事件B、樣本C、全部事件D、樣本空間【正確答案】:D解析:

隨機(jī)試驗(yàn)中的每一個(gè)可能出現(xiàn)的試驗(yàn)結(jié)果稱為這個(gè)試驗(yàn)的一個(gè)樣本點(diǎn)。全體樣本點(diǎn)組成的集合,即隨機(jī)試驗(yàn)的所有可能出現(xiàn)的結(jié)果稱為這個(gè)試驗(yàn)的樣本空間。9.下列關(guān)于Python函數(shù)調(diào)用說(shuō)法錯(cuò)誤的是()。A、函數(shù)的遞歸調(diào)用必須有一個(gè)明確的結(jié)束條件B、函數(shù)的遞歸調(diào)用每次進(jìn)入更深一層遞歸時(shí),問(wèn)題規(guī)模相比上次遞歸都應(yīng)有所減少C、函數(shù)的遞歸調(diào)用效率不高,遞歸層次過(guò)多會(huì)導(dǎo)致棧溢出(在計(jì)算機(jī)中,函數(shù)調(diào)用是通過(guò)棧(stack)這種數(shù)據(jù)結(jié)構(gòu)實(shí)現(xiàn)的,每當(dāng)進(jìn)入一個(gè)函數(shù)調(diào)用,棧就會(huì)加一層棧幀,每當(dāng)函數(shù)返回,棧就會(huì)減一層棧)D、函數(shù)的遞歸調(diào)用由于棧的大小是無(wú)限的,所以,遞歸調(diào)用的次數(shù)過(guò)多,也不會(huì)導(dǎo)致棧溢出【正確答案】:D解析:

由于棧的大小不是無(wú)限的,所以,遞歸調(diào)用的次數(shù)過(guò)多,會(huì)導(dǎo)致棧溢出。10.ordinalencoder將屬性轉(zhuǎn)化為()。A、獨(dú)熱編碼B、附帶特性的數(shù)字C、二進(jìn)制編碼D、ASCII碼【正確答案】:B解析:

ordinalencoder的作用是數(shù)值化,但是不增加列數(shù)。11.以下哪一種分布是二維隨機(jī)變量的分布()。A、正態(tài)分布B、二項(xiàng)分布C、邊緣分布

D、指數(shù)分布【正確答案】:C解析:

二維隨機(jī)變量的分布有邊緣分布和條件分布12.下列哪個(gè)不是stats模塊中的功能()。A、連續(xù)性分布B、線性方程求解C、離散型分布D、核密度估計(jì)【正確答案】:B解析:

stats模塊包含了隨機(jī)變量樣本抽取、84個(gè)連續(xù)性分布、12個(gè)離散型分布、分布的密度分布函數(shù)、核密度估計(jì)、分布構(gòu)造、分布檢驗(yàn)等功能,但不包括線性方程求解。13.若a=np.array([[1,2,3],[4,5,6]]),則print(np.mean(a))的輸出結(jié)果是(__)。A、([2.][5.])B、3.5C、([3.5])D、[2.5.]【正確答案】:B解析:

利用python進(jìn)行數(shù)據(jù)分析14.讀代碼,請(qǐng)寫(xiě)出程序正確的答案()。#!/usr/bin/envpython3n=100sum=0counter=1whilecounter<=n:sum+countercounter+=1print("1到%d之和為:%d"%(n,sum))A、結(jié)果:1到100之和為:5000B、結(jié)果:1到100之和為:0C、結(jié)果:1到100之和為:2050D、結(jié)果:1到100之和為:5020【正確答案】:B解析:

循環(huán)中沒(méi)有給sum賦值,故sum=15.池化層的作用是()。A、標(biāo)準(zhǔn)化處理輸入特征B、對(duì)特征圖進(jìn)行特征選擇和信息過(guò)濾C、對(duì)提取的特征進(jìn)行非線性組合以得到輸出D、直接輸出每個(gè)像素的分類結(jié)果【正確答案】:B解析:

《數(shù)據(jù)科學(xué)》16.當(dāng)圖像通過(guò)信道傳輸時(shí),噪聲一般與()無(wú)關(guān)。A、信道傳輸?shù)馁|(zhì)量B、出現(xiàn)的圖像信號(hào)C、是否有中轉(zhuǎn)信道的過(guò)程D、圖像在信道前后的處理【正確答案】:B解析:

當(dāng)圖像通過(guò)信道傳輸時(shí),噪聲一般與出現(xiàn)的圖像信號(hào)無(wú)關(guān),這種獨(dú)立于信號(hào)的退化被稱為加性噪聲。信道傳輸質(zhì)量、中轉(zhuǎn)信道都會(huì)影響圖像質(zhì)量,而圖像在信道前后的預(yù)處理和后處理也會(huì)產(chǎn)生噪聲。17.scipy中模塊integrate的作用是()。A、程序輸入輸出B、差值計(jì)算C、計(jì)算積分D、向量計(jì)算;【正確答案】:C解析:

scipy中,integrate是用來(lái)進(jìn)行積分計(jì)算的模塊。18.下面哪個(gè)不是hdfs副本放置策略()。A、本機(jī)B、當(dāng)?shù)貦C(jī)架C、不同機(jī)架的同一個(gè)節(jié)點(diǎn)D、不同機(jī)架的不同節(jié)點(diǎn)【正確答案】:A解析:

每個(gè)hdfs文件應(yīng)至少有三個(gè)副本,一份在當(dāng)?shù)貦C(jī)架,一份在不同機(jī)架的同一個(gè)節(jié)點(diǎn),一份在不同機(jī)架的不同節(jié)點(diǎn)。19.Hadoop中,Reducer的三個(gè)階段是__。A、Shuffle-Sort-ReduceB、Shuffle-Reduce-SortC、Reduce-Shuffle-SortD、Sort-Shuffle-Reduce【正確答案】:A解析:

Reducer主要分為三個(gè)步驟Shuffle洗牌、Sort排序和Reduce20.下列關(guān)于數(shù)據(jù)倉(cāng)庫(kù)最終目的的描述正確的是()A、收集業(yè)務(wù)需求B、建立數(shù)據(jù)倉(cāng)庫(kù)邏輯模型C、開(kāi)發(fā)數(shù)據(jù)倉(cāng)庫(kù)的應(yīng)用分析D、為用戶和業(yè)務(wù)部門提供決策支持【正確答案】:D解析:

基礎(chǔ)知識(shí)參考【正確答案】:D解析:數(shù)據(jù)倉(cāng)庫(kù)的最終目的是為用戶和業(yè)務(wù)部門提供決策支持。21.在多分類學(xué)習(xí)中,不屬于經(jīng)典的拆分策略有()。A、一對(duì)其余(Onevs.Rest,簡(jiǎn)稱OvR)B、二對(duì)二(Twovs.Two,簡(jiǎn)稱TvT)C、多對(duì)多(Manyvs.Many,簡(jiǎn)稱MvM)D、一對(duì)一(Onevs.One,簡(jiǎn)稱OvO)【正確答案】:B解析:

《機(jī)器學(xué)習(xí)》22.以下程序的輸出結(jié)果是:ls=list({'shandong':200,'hebei':300,'beijing':400})print(ls)A、['shandong','hebei','beijing']B、[300,200,400]C、['300','200','400']D、[[‘shandong':200],['hebei':300],['beijing':400]]【正確答案】:A23.以下代碼中繪制散點(diǎn)圖的是()。A、plt.scatter(x,y)B、plt.plot(x,y)C、plt.legend('upperleft)D、plt.xlabel(散點(diǎn)圖"")【正確答案】:A解析:

scatter用于繪制散點(diǎn)圖。24.在多元線性回歸模型中,若某個(gè)解釋變量對(duì)其余解釋變量的判定系數(shù)接近于1,則表明模型中存在()。A、異方差B、序列相關(guān)C、多重共線性D、高擬合優(yōu)度【正確答案】:C解析:

在多元線性回歸模型中,若某個(gè)解釋變量對(duì)其余解釋變量的判定系數(shù)接近于1,則表明模型中存在多重共線性。25.數(shù)據(jù)管理成熟度模型——DMM模型將一個(gè)機(jī)構(gòu)的數(shù)據(jù)管理工作抽象成6個(gè)關(guān)鍵過(guò)程域,即數(shù)據(jù)戰(zhàn)略、()、數(shù)據(jù)質(zhì)量、平臺(tái)與架構(gòu)、數(shù)據(jù)操作以及輔助性過(guò)程。A、數(shù)據(jù)管理B、數(shù)據(jù)治理C、數(shù)據(jù)策略D、數(shù)據(jù)安全【正確答案】:B解析:

DMM模型將一個(gè)機(jī)構(gòu)的數(shù)據(jù)管理工作抽象成6個(gè)關(guān)鍵過(guò)程域,即數(shù)據(jù)戰(zhàn)略、數(shù)據(jù)治理、數(shù)據(jù)質(zhì)量、平臺(tái)與架構(gòu)、數(shù)據(jù)操作以及輔助性過(guò)程。26.以下代碼的輸出結(jié)果為()。arr1=np.arange(0,16,1).reshape(4,4)np.delete(arr1,1,axis=1)print(arr1)A、[[0,2,3],[4,6,7],[8,10,11],[12,14,15]]B、[[0,1,2,3],[8,9,10,11],[12,13,14,15]]C、[[0,1,2,3],[4,5,6,7],[8,9,10,11],[12,13,14,15]]D、[[1,2,3],[5,6,7],[9,10,11],[13,14,15]]【正確答案】:C解析:

np.delete()不會(huì)改變?cè)瓟?shù)組,而是新建數(shù)組進(jìn)行刪除。27.下列哪個(gè)不屬于常用的文本分類的特征選擇算法()。A、卡方檢驗(yàn)值B、互信息C、信息增益D、主成分分析【正確答案】:D解析:

以文檔頻率為基礎(chǔ)的特征選擇算法有文檔頻次方法(直接依據(jù)文檔頻率大小排序的方法)、卡方檢驗(yàn)、信息增益、互信息等,不包括主成分分析法。28.圖像中虛假輪廓的出現(xiàn)就其本質(zhì)而言是()。A、圖像的灰度級(jí)數(shù)不夠多而造成的B、圖像的空間分辨率不夠高而造成的C、圖像的灰度級(jí)數(shù)過(guò)多而造成的D、圖像的空間分辨率過(guò)高而造成的【正確答案】:A解析:

圖像中的虛假輪廓最易在平滑區(qū)域內(nèi)產(chǎn)生。平滑區(qū)域內(nèi)灰度應(yīng)緩慢變化,但當(dāng)圖像的灰度級(jí)數(shù)不夠多時(shí)會(huì)產(chǎn)生階躍。所以圖像中虛假輪廓的出現(xiàn)就其本質(zhì)而言是圖像的灰度級(jí)數(shù)不夠多而造成的,選A。29.下面哪行代碼最適合接受系統(tǒng)輸入的一個(gè)整數(shù)()。A、num=input()B、num=input(“6”)C、num=int(input())D、num=float(input())【正確答案】:C解析:

AB輸入后是字符串;C輸入后是整數(shù);D輸入后是浮點(diǎn)數(shù)。30.留出法直接將數(shù)據(jù)集劃分為()個(gè)互斥的集合。A、一B、二C、三D、四【正確答案】:B解析:

留出法(hold-out)直接將數(shù)據(jù)集D劃分為兩個(gè)互斥的集合,其中一個(gè)集合作為訓(xùn)練集,另一個(gè)作為測(cè)試集T。31.關(guān)于Python賦值語(yǔ)句,以下選項(xiàng)中不合法的是()。A、x=1;y=1B、x=y=1C、x=(y=1)D、x,y=y,x【正確答案】:C解析:

賦值語(yǔ)句不能用于賦值。32.在MapReduce中,以下描述錯(cuò)誤的有()。A、Worker故障和Master故障的處理方法不相同B、Map和Reduce的處理結(jié)果都存儲(chǔ)在本地文件系統(tǒng)C、一個(gè)Worker發(fā)生故障時(shí),該節(jié)點(diǎn)上執(zhí)行完的Map任務(wù)需要再次執(zhí)行D、MapReduce具有很強(qiáng)的容錯(cuò)機(jī)制【正確答案】:B解析:

已經(jīng)完成的Map任務(wù)的輸出存儲(chǔ)在本臺(tái)機(jī)器上,Reduce任務(wù)的輸出存儲(chǔ)在全局文件系統(tǒng)上,故B錯(cuò)。33.所有預(yù)測(cè)模型在廣義上都可稱為一個(gè)或一組()。A、公式B、邏輯C、命題D、規(guī)則【正確答案】:D解析:

所有預(yù)測(cè)模型在廣義上都可稱為一個(gè)或一組規(guī)則。34.Python代碼中mpl.rcParams['font.sans-serif']=['SimHei']的作用是()。A、設(shè)置圖表中文顯示的字體B、設(shè)置圖表圖例的位置C、設(shè)置圖表標(biāo)題的顏色D、設(shè)置圖表標(biāo)題的位置【正確答案】:A解析:

設(shè)置圖表字體以正確顯示中文。35.scipy中()是空間數(shù)據(jù)結(jié)構(gòu)和算法模塊。A、clusterB、constantsC、integrateD、spatial【正確答案】:D解析:

spatial模塊是Scipy中的空間結(jié)構(gòu)模塊,提供了一些空間相關(guān)的數(shù)據(jù)結(jié)構(gòu)和算法,如Delaunay三角剖分,共面點(diǎn),凸包,維諾圖,Kd樹(shù)等。36.常用的灰度內(nèi)插值法不包括()。A、最近鄰內(nèi)插法B、三次內(nèi)插法C、雙線性內(nèi)插值法D、三次樣條插值法【正確答案】:D解析:

常用的灰度內(nèi)插值法有最近鄰內(nèi)插法,三次內(nèi)插法,雙線性內(nèi)插值法,所以本題答案有ABC三個(gè),建議題目修改為常用的灰度內(nèi)插值法不包括,參考答案為D。37.評(píng)估完模型之后,發(fā)現(xiàn)模型存在高偏差(highbias),應(yīng)該如何解決()。A、減少模型的特征數(shù)量B、增加模型的特征數(shù)量C、增加樣本數(shù)量D、以上答案都正確【正確答案】:B解析:

如果模型存在高偏差,意味著模型過(guò)于簡(jiǎn)單,為了使模型更加健壯,可以在特征空間中添加更多的特征。而增加樣本數(shù)量將減少方差。38.大數(shù)據(jù)涌現(xiàn)現(xiàn)象的形式有多種,不屬于大數(shù)據(jù)涌現(xiàn)的形式()。A、價(jià)值涌現(xiàn)B、隱私涌現(xiàn)C、物質(zhì)涌現(xiàn)D、安全涌現(xiàn)【正確答案】:C解析:

大數(shù)據(jù)并不等同于“小數(shù)據(jù)的集合”。因?yàn)?,從“小?shù)據(jù)”到“大數(shù)據(jù)”的過(guò)程中出現(xiàn)了“涌現(xiàn)”現(xiàn)象,“涌現(xiàn)”才是大數(shù)據(jù)的本質(zhì)特征。所謂的“涌現(xiàn)(Emergence)”就是“系統(tǒng)大于元素之和,或者說(shuō)系統(tǒng)在跨越層次時(shí),出現(xiàn)了新的質(zhì)”。大數(shù)據(jù)“涌現(xiàn)”現(xiàn)象的具體表現(xiàn)形式有多種,例如價(jià)值涌現(xiàn)、隱私涌現(xiàn)、質(zhì)量涌現(xiàn)和安全涌現(xiàn)等。39.從行為目的與思維方式看,下列哪個(gè)屬于描述統(tǒng)計(jì)方法()。A、線性回歸B、參數(shù)估計(jì)C、相關(guān)分析D、主成分分析【正確答案】:C解析:

描述性統(tǒng)計(jì),是指運(yùn)用制表和分類,圖形以及計(jì)算概括性數(shù)據(jù)來(lái)描述數(shù)據(jù)特征的各項(xiàng)活動(dòng)。描述性統(tǒng)計(jì)分析要對(duì)調(diào)查總體所有變量的有關(guān)數(shù)據(jù)進(jìn)行統(tǒng)計(jì)性描述,主要包括數(shù)據(jù)的頻數(shù)分析、集中趨勢(shì)分析、離散程度分析、分布、相關(guān)以及一些基本的統(tǒng)計(jì)圖形。40.MapReduce對(duì)map()函數(shù)的返回值進(jìn)行處理后再返回給reduce()函數(shù)的目的是()。A、減少map()函數(shù)和reduce()函數(shù)之間的數(shù)據(jù)傳輸B、優(yōu)化map()函數(shù)C、優(yōu)化reduce()函數(shù)D、這一步驟并無(wú)必要【正確答案】:A解析:

為了降低map()函數(shù)與reduce()函數(shù)之間的數(shù)據(jù)傳輸量,一般先對(duì)map()函數(shù)的輸出結(jié)果進(jìn)行處理。41.BP神經(jīng)網(wǎng)絡(luò)經(jīng)常遭遇(____),其訓(xùn)練誤差持續(xù)降低,但測(cè)試誤差卻可能上升。A、欠擬合B、誤差過(guò)大C、誤差過(guò)小D、過(guò)擬合【正確答案】:D42.下列程序段執(zhí)行后,輸出結(jié)果是()。n=1s=1whilen<5:s=s*nn=n+1Print(s)A、24B、10C、120D、15【正確答案】:A解析:

該段程序執(zhí)行結(jié)果為1*1*2*3*4等于24。43.下列關(guān)于誤差的說(shuō)法,正確的是()。A、訓(xùn)練樣本容量增加,泛化誤差也會(huì)增加B、過(guò)擬合指數(shù)據(jù)在訓(xùn)練集上的誤差過(guò)大C、過(guò)擬合可以通過(guò)減少模型參數(shù)數(shù)量解決D、交叉驗(yàn)證不重復(fù)使用數(shù)據(jù)【正確答案】:C解析:

解決過(guò)擬合的兩條主線:一是增大數(shù)據(jù)集,二是降低模型的復(fù)雜度(根據(jù)VC維理論可知)。44.SLIC算法的主要目的是()。A、目標(biāo)識(shí)別B、前景和背景分離C、超像素提取D、語(yǔ)義分割【正確答案】:C解析:

SLIC是基于K-means算法的生成超像素新方法,SLIC是超像素中心周圍的區(qū)域2S×2S中進(jìn)行類似像素的搜索45.下列關(guān)于線性回歸分析中的殘差說(shuō)法正確的是()。A、殘差均值總是為零B、殘差均值總是約等于零C、殘差均值總是大于零D、以上答案都不正確【正確答案】:A解析:

線性回歸分析中,目標(biāo)是殘差最小化。殘差平方和是關(guān)于參數(shù)的函數(shù),為了求殘差極小值,令殘差關(guān)于參數(shù)的偏導(dǎo)數(shù)為零,會(huì)得到殘差和為零,即殘差均值為零。46.RNN不同于其它神經(jīng)網(wǎng)絡(luò)的地方在于(__)。A、實(shí)現(xiàn)了記憶功能B、速度快C、精度高D、易于搭建【正確答案】:A解析:

RNN不同于其它神經(jīng)網(wǎng)絡(luò)的地方在于實(shí)現(xiàn)了記憶功能。47.下列哪項(xiàng)關(guān)于模型能力(指神經(jīng)網(wǎng)絡(luò)模型能擬合復(fù)雜函數(shù)的能力)的描述是正確的A、隱藏層層數(shù)增加,模型能力增加B、Dropout的比例增加,模型能力增加C、學(xué)習(xí)率增加,模型能力增加D、都不正確【正確答案】:A48.在linux下預(yù)裝了Python2,Python3且默認(rèn)Python版本為Python3,下列描述可以正確啟動(dòng)Python有()。A、在linux應(yīng)用程序Terminal,打開(kāi)一個(gè)終端窗口。輸入whichPythonB、在linux應(yīng)用程序Terminal,打開(kāi)一個(gè)終端窗口。輸入Python2或Python3C、在linux應(yīng)用程序Terminal,打開(kāi)一個(gè)終端窗口。輸入whichPython3D、在linux應(yīng)用程序Terminal,打開(kāi)一個(gè)終端窗口。輸入輸入whichPython2【正確答案】:B解析:

Windows系統(tǒng)下通過(guò)在命令行直接輸入python2或者python3啟動(dòng)Python,Linux系統(tǒng)下通過(guò)在Terminal輸入python2或者python3啟動(dòng)Python。49.下列關(guān)于線性模型的描述錯(cuò)誤的是()。A、支持向量機(jī)的判別函數(shù)一定屬于線性函數(shù)B、在樣本為某些分布情況時(shí),線性判別函數(shù)可以成為最小錯(cuò)誤率或最小風(fēng)險(xiǎn)意義下的最優(yōu)分類器C、在一般情況下,線性分類器只能是次優(yōu)分類器D、線性分類器簡(jiǎn)單而且在很多期情況下效果接近最優(yōu),所以應(yīng)用比較廣泛【正確答案】:A解析:

支持向量機(jī)的判別函數(shù)不一定是線性函數(shù)。50.大數(shù)據(jù)環(huán)境下的隱私擔(dān)憂,主要表現(xiàn)為()A、個(gè)人信息的被識(shí)別與暴露B、客戶畫(huà)像的生成C、惡意廣告的推送D、病毒入侵【正確答案】:A解析:

大數(shù)據(jù)環(huán)境下的隱私擔(dān)憂,主要表現(xiàn)為個(gè)人信息的被識(shí)別與暴露。51.線性判別分析在二分類問(wèn)題上,也稱為()。A、線性回歸B、對(duì)數(shù)幾率回歸C、Fisher判別分析D、主成分分析【正確答案】:C解析:

線性判別分析在二分類問(wèn)題上,也稱為Fisher判別分析。52.關(guān)系云的一個(gè)重要功能是提供()。A、數(shù)據(jù)庫(kù)即服務(wù)B、虛擬服務(wù)C、彈性計(jì)算D、按需服務(wù)【正確答案】:A解析:

關(guān)系云的一個(gè)重要功能是提供“數(shù)據(jù)庫(kù)即服務(wù)(DatabaseasaService)”,用戶無(wú)須在本機(jī)安裝數(shù)據(jù)庫(kù)管理軟件,也不需要搭建自己的數(shù)據(jù)管理集群,而只需要使用服務(wù)提供商提供的數(shù)據(jù)庫(kù)服務(wù)。53.以下不能創(chuàng)建一個(gè)字典的語(yǔ)句是()。A、dict1={}B、dict2={3:5}C、dict3={[1,2,3]:“uestc”}D、dict4={(1,2,3):“uestc”}【正確答案】:C解析:

字典key不可以是可變類型54.當(dāng)我們需要在一張圖表中加上文字標(biāo)注,達(dá)到提醒讀者的目的時(shí),需要用到()函數(shù)。A、plt.axvspan()B、plt.axhspan()C、plt.annotate()D、plt.text()【正確答案】:D解析:

文字標(biāo)注是text函數(shù)。55.關(guān)于模塊下列說(shuō)法不正確的是()。A、Python模塊(Module),是一個(gè)Python文件,以.py結(jié)尾,包含了Python對(duì)象定義和Python語(yǔ)句。B、模塊讓你能夠有邏輯地組織你的Python代碼段。C、把相關(guān)的代碼分配到一個(gè)模塊里能讓你的代碼更好用,更易懂。D、模塊不能定義類【正確答案】:D解析:

模塊中可以定義類。56.CPU主要通過(guò)增加指令,增加核數(shù)等方式來(lái)提升AI性能。A、TRUEB、FALSE【正確答案】:A57.Scipy的stats包中提供了產(chǎn)生連續(xù)性分布的函數(shù),其中用于均勻分布的函數(shù)是()。A、normB、uniformC、betaD、geom【正確答案】:B解析:

均勻分布是uniform。58.()采用概率模型來(lái)表達(dá)聚類原型。A、k均值算法B、學(xué)習(xí)向量量化C、高斯混合聚類D、密度聚類【正確答案】:C解析:

高斯混合聚類采用概率模型來(lái)表達(dá)聚類原型。59.訓(xùn)練完SVM模型后,不是支持向量的那些樣本我們可以丟掉,也可以繼續(xù)分類:()。A、正確B、錯(cuò)誤【正確答案】:A解析:

訓(xùn)練完SVM模型后,不是支持向量的那些樣本我們可以丟掉,也可以繼續(xù)分類。60.加強(qiáng)數(shù)據(jù)傳輸、存儲(chǔ)過(guò)程中的安全管理,采取_____、_____、_____等安全技術(shù)手段,確保符合相應(yīng)安全條件或技術(shù)標(biāo)準(zhǔn),具備災(zāi)備能力,防范數(shù)據(jù)泄露、篡改、損毀、丟失風(fēng)險(xiǎn)。A、隔離、過(guò)濾、加密B、接入認(rèn)證、加密、隔離C、過(guò)濾、隔離、備份D、加密、隔離、備份【正確答案】:D61.在HDFS中()是文件系統(tǒng)的工作節(jié)點(diǎn)。A、DataNodeB、ClientC、NameNodeD、Flume【正確答案】:A解析:

數(shù)據(jù)節(jié)點(diǎn)(DataNode)是分布式文件系統(tǒng)HDFS的工作節(jié)點(diǎn),負(fù)責(zé)數(shù)據(jù)的存儲(chǔ)和讀取,會(huì)根據(jù)客戶端或者是名稱節(jié)點(diǎn)的調(diào)度來(lái)進(jìn)行數(shù)據(jù)的存儲(chǔ)和檢索,并且向名稱節(jié)點(diǎn)定期發(fā)送自己所存儲(chǔ)的塊的列表。每個(gè)數(shù)據(jù)節(jié)點(diǎn)中的數(shù)據(jù)會(huì)被保存在各自節(jié)點(diǎn)本地Linux文件系統(tǒng)中。62.scipy中模塊io的作用是()。A、差值計(jì)算B、程序輸入輸出C、稀疏矩陣D、優(yōu)化【正確答案】:B解析:

scipy中,io是用來(lái)進(jìn)行輸入輸出控制的模塊。63.下面代碼的輸出結(jié)果是x=0o1010print(x)A、10B、520C、1024D、32768【正確答案】:B64.當(dāng)try子句中沒(méi)有任何錯(cuò)誤時(shí),一定不會(huì)執(zhí)行()語(yǔ)句。A、tryB、slseC、exceptD、finally【正確答案】:C解析:

except是當(dāng)try語(yǔ)句錯(cuò)誤才運(yùn)行。65.在Spark中,()是指RDD的每個(gè)分區(qū)都只被子RDD的一個(gè)分區(qū)所依賴。A、子分區(qū)B、父分區(qū)C、寬依賴D、窄依賴【正確答案】:D解析:

窄依賴定義。66.我們?cè)谑褂胮andas時(shí)需要怎樣導(dǎo)入A、ImportpandasaspdB、ImportsysC、ImportmatplotlibD、以上都不正確【正確答案】:A解析:

《Python數(shù)據(jù)分析基礎(chǔ)》,人民郵電出版社67.當(dāng)決策樹(shù)出現(xiàn)過(guò)擬合的時(shí)候,可以采取以下哪些措施()。A、剪枝B、增加訓(xùn)練次數(shù)C、減少樣本數(shù)量D、以上均可【正確答案】:A解析:

《機(jī)器學(xué)習(xí)》68.scikit-learn中的k-means類,哪個(gè)參數(shù)是用來(lái)調(diào)節(jié)k值的()。A、n_clustersB、max_iterC、n_initD、init【正確答案】:A解析:

n_clusters參數(shù)設(shè)定了k-means算法的聚類個(gè)數(shù)。69.()先對(duì)數(shù)據(jù)集進(jìn)行特征選擇,然后再訓(xùn)練學(xué)習(xí)器。A、過(guò)濾式選擇B、包裹式選擇C、稀疏表示D、嵌入式選擇【正確答案】:A解析:

過(guò)濾式選擇先對(duì)數(shù)據(jù)集進(jìn)行特征選擇,然后再訓(xùn)練學(xué)習(xí)器。70.數(shù)據(jù)的可用性取決于()。A、數(shù)據(jù)分析B、數(shù)據(jù)集采C、數(shù)據(jù)質(zhì)量D、數(shù)據(jù)需求【正確答案】:C71.ZooKeeper的特點(diǎn)描述錯(cuò)誤的是()。A、復(fù)雜性B、自我復(fù)制C、順序訪問(wèn)D、高速讀取【正確答案】:A解析:

ZooKeeper的設(shè)計(jì)目標(biāo)和特點(diǎn)包括簡(jiǎn)單性、自我復(fù)制、順序訪問(wèn)和高速讀取。72.下列關(guān)于數(shù)據(jù)科學(xué)流程與方法的描述中,錯(cuò)誤的是()。A、數(shù)據(jù)科學(xué)的基本流程包括數(shù)據(jù)化、數(shù)據(jù)加工(DataWrangling或DataMunging)、數(shù)據(jù)規(guī)整化、探索性分析、數(shù)據(jù)分析與洞見(jiàn)、結(jié)果展現(xiàn)以及數(shù)據(jù)產(chǎn)品的提供B、對(duì)于數(shù)據(jù)形態(tài)不符合要求的亂數(shù)據(jù),要通過(guò)清洗成為規(guī)整數(shù)據(jù)C、數(shù)據(jù)分析包括描述性分析、診斷性分析、預(yù)測(cè)性分析和規(guī)范性分析D、數(shù)據(jù)可視化會(huì)遇到視覺(jué)假象問(wèn)題,人眼對(duì)亮度和顏色的相對(duì)判斷容易造成視覺(jué)假象【正確答案】:B解析:

對(duì)于數(shù)據(jù)形態(tài)不符合要求的亂數(shù)據(jù),要通過(guò)規(guī)整化處理(DataTyding)成為規(guī)整數(shù)據(jù)73.關(guān)于拋出異常的說(shuō)法中,描述錯(cuò)誤的是()。A、當(dāng)raise指定異常的類名時(shí),會(huì)隱式地創(chuàng)建異常類的實(shí)例B、顯式地創(chuàng)建異常類實(shí)例,可以使用raise直接引發(fā)C、不帶參數(shù)的raise語(yǔ)句,只能引發(fā)剛剛發(fā)生過(guò)的異常D、使用raise拋出異常時(shí),無(wú)法指定描述信息【正確答案】:D解析:

raise語(yǔ)句的第一個(gè)參數(shù)指定要產(chǎn)生的例外的名字;可選的第二參數(shù)指定例外的參數(shù)。74.Hive的數(shù)據(jù)最終存儲(chǔ)在()A、HDFSB、HBaseC、RDBMSD、Metastore【正確答案】:A解析:

Hive是基于Hadoop分布式文件系統(tǒng)的,它的數(shù)據(jù)存儲(chǔ)在Hadoop分布式文件系統(tǒng)HDFS中75.構(gòu)造了一個(gè)詞表:{1.小明2.喜歡3.踢4.看5.足球6.籃球7.電影},利用上述詞表的索引號(hào),文檔{小明喜歡踢足球}可以用一個(gè)7維向量表示為()。A、[1101001]B、[1111111]C、[1111100]D、[1110100]【正確答案】:D解析:

統(tǒng)計(jì)文檔中每個(gè)詞的數(shù)量,根據(jù)詞表的位置,將各個(gè)詞的數(shù)量拼接成一個(gè)向量即可。76.隨機(jī)森林中的隨機(jī)是什么意思?A、隨便構(gòu)建樹(shù)模B、隨機(jī)選擇一個(gè)樹(shù)模型C、隨機(jī)選擇多個(gè)樹(shù)模型D、在構(gòu)建每個(gè)樹(shù)模型時(shí)隨機(jī)選擇樣本和特征【正確答案】:D77.某籃運(yùn)動(dòng)員在三分線投球的命中率是2(1),他投球10次,恰好投進(jìn)3個(gè)球的概率()。A、128(15)B、16(3)C、8(5)D、16(7)【正確答案】:A解析:

投籃只有兩種結(jié)果,進(jìn)或者不進(jìn),符合二項(xiàng)分布,二項(xiàng)分布概率的概率可以用以下公式求得,其中n=10代表試驗(yàn)次數(shù),k=3代表事件連續(xù)發(fā)生的次數(shù),p=1/2代表事件發(fā)生的概率。78.下面與Zookeeper類似的框架是()。A、ProtobufB、JavaC、KafkaD、Chubby【正確答案】:D解析:

Chubby—Google的分布式協(xié)調(diào)系統(tǒng)79.在抽樣估計(jì)中,隨著樣本容量的增大,樣本統(tǒng)計(jì)量接近總體參數(shù)的概率就越大,這一性質(zhì)稱為()A、無(wú)偏性B、有效性C、及時(shí)性D、一致性【正確答案】:D解析:

一致性是指隨著樣本容量的增大,樣本統(tǒng)計(jì)量接近總體參數(shù)的概率就越大,對(duì)于給定的偏差控制水平,兩者間偏差高于此控制水平,兩者間偏差高于此控制水平的可能性越小。80.一幅數(shù)字圖像是()。A、一個(gè)觀測(cè)系統(tǒng)B、一個(gè)由許多像素排列而成的實(shí)體C、一個(gè)2-D空間中的場(chǎng)景D、一個(gè)3-D空間中的場(chǎng)景【正確答案】:C解析:

數(shù)字圖像,又稱數(shù)碼圖像或數(shù)位圖像,是二維圖像用有限數(shù)字?jǐn)?shù)值像素的表示。81.關(guān)于函數(shù)的可變參數(shù),可變參數(shù)*args傳入函數(shù)時(shí)存儲(chǔ)的類型是()。A、dictB、tupleC、listD、set【正確答案】:B解析:

*args用來(lái)將參數(shù)打包成tuple給函數(shù)體調(diào)用;**kwargs打包關(guān)鍵字參數(shù)成dict給函數(shù)體調(diào)用。82.(假設(shè)precision=TP/(TP+FP),recall=TP/(TP+FN))在二分類問(wèn)題中,當(dāng)測(cè)試集的正例和負(fù)例數(shù)量不均衡時(shí),以下評(píng)價(jià)方案哪個(gè)是相對(duì)不合理的()。Accuracy:(TP+TN)/allB、F-value:2recallprecision/(recall+precision)C、G-mean:sqrt(precision*recall)D、AUC:曲線下面積【正確答案】:A解析:

測(cè)試集正例和負(fù)例數(shù)量不均衡,那么假設(shè)正例數(shù)量很少占10%,負(fù)例數(shù)量占大部分90%。而且算法能正確識(shí)別所有負(fù)例,但正例只有一半能正確判別。那么TP=05×all,TN=0.9×all,Accuracy=95%。雖然Accuracy很高,precision是100%,但正例recall只有50%。83.對(duì)參數(shù)進(jìn)行L2正則,是機(jī)器學(xué)習(xí)常用的防止過(guò)擬合的方法。請(qǐng)問(wèn)對(duì)參數(shù)做L2正則,下列()是對(duì)參數(shù)本身做先驗(yàn)分布假設(shè)。A、高斯分布B、拉普拉斯分布C、泊松分布D、均勻分布【正確答案】:A解析:

L2正則假設(shè)參數(shù)的先驗(yàn)分布是Gaussian分布,可以保證模型的穩(wěn)定性,也就是參數(shù)的值不會(huì)太大或太小。84.ReLU函數(shù)又稱為修正線性單元,有()特點(diǎn)A、解決梯度消失問(wèn)題(在正區(qū)間)B、計(jì)算簡(jiǎn)單C、收斂速度慢【正確答案】:A解析:

《大數(shù)據(jù)應(yīng)用知識(shí)讀本》85.HBase使用一個(gè)()節(jié)點(diǎn)協(xié)調(diào)管理一個(gè)或多個(gè)regionserver從屬機(jī)。A、namenode;B、datanode;C、jobtracker;D、master;【正確答案】:D解析:

Hbase中由一個(gè)Master節(jié)點(diǎn)負(fù)責(zé)協(xié)調(diào)管理一個(gè)或多個(gè)RegionServer從屬機(jī)86.傳統(tǒng)管理技術(shù)不包括()。A、數(shù)據(jù)庫(kù)系統(tǒng)B、數(shù)據(jù)倉(cāng)庫(kù)C、文件系統(tǒng)D、數(shù)據(jù)視圖【正確答案】:D解析:

《數(shù)據(jù)科學(xué)》87.查看變量?jī)?nèi)存地址的Python內(nèi)置函數(shù)是()。A、memery()B、id()C、localof()D、help()【正確答案】:B解析:

查看變量?jī)?nèi)存地址的Python內(nèi)置函數(shù)是id()。88.在留出法、交叉驗(yàn)證法和自助法三種評(píng)估方法中,()更適用于數(shù)據(jù)集較小、難以劃分訓(xùn)練集和測(cè)試集的情況。A、留出法B、交叉驗(yàn)證法C、自助法D、留一法【正確答案】:C解析:

自助法更適用于數(shù)據(jù)集較小、難以劃分訓(xùn)練集和測(cè)試集的情況。89.以下關(guān)于Python模塊理解錯(cuò)誤的有()。A、模塊是包含函數(shù)和變量的Python文件B、不可以使用.操作符訪問(wèn)模塊中的函數(shù)和變量C、可以導(dǎo)入模塊中的所有類D、可以在一個(gè)模塊中導(dǎo)入另一個(gè)模塊【正確答案】:B解析:

導(dǎo)入模塊后,可直接使用“模塊.函數(shù)名/變量名”訪問(wèn)函數(shù)或變量。90.如果你的數(shù)據(jù)有許多異常值,那么使用數(shù)據(jù)的均值與方差去做標(biāo)準(zhǔn)化就不行了,在preprocessing模塊中定義了哪個(gè)方法可以解決這個(gè)問(wèn)題()。A、normalizer()B、robust_scale()C、maxabs_scale()D、scale()【正確答案】:B解析:

robust_scale()和RobustScaler()這兩個(gè)方法,解決了上述問(wèn)題,它會(huì)根據(jù)中位數(shù)或者四分位數(shù)去中心化數(shù)據(jù)。91.隨著集成中個(gè)體分類器(相互獨(dú)立)數(shù)目T的增大,集成的錯(cuò)誤率將呈()下降,最終趨向于零。A、指數(shù)級(jí)B、對(duì)數(shù)級(jí)C、線性級(jí)D、平方級(jí)【正確答案】:A解析:

隨著集成中個(gè)體分類器數(shù)目T的增大,集成的錯(cuò)誤率將指數(shù)級(jí)下降,最終趨向于零。92.下列哪一項(xiàng)在神經(jīng)網(wǎng)絡(luò)中引入了非線性()A、隨機(jī)梯度下降修正B、線性單元(ReLU)C、卷積函數(shù)D、以上答案都不正確【正確答案】:B解析:

Relu是目前最常用的激勵(lì)函數(shù),增加了神經(jīng)網(wǎng)絡(luò)模型的非線性。93.Matplotlib的主要功能是()。A、科學(xué)計(jì)算B、繪圖庫(kù)C、爬取網(wǎng)站數(shù)據(jù)、提取結(jié)構(gòu)性數(shù)據(jù)D、機(jī)器學(xué)習(xí)庫(kù)【正確答案】:B解析:

Matplotlib是一個(gè)Python2D繪圖庫(kù),它以多種硬拷貝格式和跨平臺(tái)的交互式環(huán)境生成出版物質(zhì)量的圖形。94.在選擇神經(jīng)網(wǎng)絡(luò)的深度時(shí),下面哪些參數(shù)需要考慮1.神經(jīng)網(wǎng)絡(luò)的類型(如MLP,CNN)2.輸入數(shù)據(jù)3.計(jì)算能力(硬件和軟件能力決定)4.學(xué)習(xí)速率5.映射的輸出函數(shù)A、1,2,4,5B、2,3,4,5C、都需要考慮D、1,3,4,5【正確答案】:C95.以下關(guān)于train_test_split函數(shù)的說(shuō)法正確的是()。A、train_test_split能夠?qū)?shù)據(jù)集劃分為訓(xùn)練集、驗(yàn)證集和測(cè)試集B、train_test_split的輸入只能是一個(gè)數(shù)組C、train_test_split每次的劃分結(jié)果不同,無(wú)法解決D、train_test_split函數(shù)可以自行決定訓(xùn)練集和測(cè)試集的占比【正確答案】:D解析:

train_test_split將輸入分為訓(xùn)練集和測(cè)試集,可以同時(shí)傳入特征數(shù)組和標(biāo)簽數(shù)組。若想要獲得同樣的劃分結(jié)果,可通過(guò)randomstate參數(shù)設(shè)置相同的隨機(jī)種子。96.一幅512*512的圖像,若灰度級(jí)數(shù)為16,則該圖像大小為()。A、32KBB、128KBC、1MBD、2MB【正確答案】:B解析:

512*512表示像素個(gè)數(shù),16級(jí)灰度用二進(jìn)制表示需要4位,故存儲(chǔ)圖像所需的二進(jìn)制位數(shù)為:512*512*4,即1024Kbit,所需字節(jié)數(shù)除以8為128KB,注意單位的不同。97.以下代碼的輸出結(jié)果為()。importnumpyasnpa=np.array([0.25,1.33,1,100])print(np.reciprocal(a))A、[-10.-9.-8.]B、[-7.-6.-5.]C、[0.251.331.100.]D、[4.0.75187971.0.01]【正確答案】:D解析:

np.reciprocal()取倒數(shù)。98.以下屬于考慮詞語(yǔ)位置關(guān)系的模型有()。A、詞向量模型B、詞袋模型C、詞的分布式表示D、TF-IDF【正確答案】:A解析:

詞向量模型考慮通過(guò)中間詞預(yù)測(cè)鄰近詞,需要考慮詞語(yǔ)順序位置。99.如果規(guī)則集R中不存在兩條規(guī)則被同一條記錄觸發(fā),則稱規(guī)則集R中的規(guī)則為()。A、無(wú)序規(guī)則B、窮舉規(guī)則C、互斥規(guī)則D、有序規(guī)則【正確答案】:C解析:

如果規(guī)則集R中不存在兩條規(guī)則被同一條記錄觸發(fā),則稱規(guī)則集R中的規(guī)則為互斥規(guī)則。100.任何一個(gè)核函數(shù)都隱式地定義了一個(gè)()空間。A、希爾伯特空間B、再生希爾伯特空間C、再生核希爾伯特空間D、歐式空間【正確答案】:C解析:

任何一個(gè)核函數(shù)都隱式地定義了一個(gè)再生核希爾伯特空間空間。101.假設(shè)你需要調(diào)整參數(shù)來(lái)最小化代價(jià)函數(shù)(costfunction),會(huì)使用()技術(shù)。A、窮舉搜索B、隨機(jī)搜索C、Bayesian優(yōu)化D、以上全是【正確答案】:D解析:

要使用的學(xué)習(xí)器的性能作為特征于集的評(píng)價(jià)準(zhǔn)則.102.AUC是衡量()模型優(yōu)劣的一種評(píng)價(jià)指標(biāo)。A、回歸B、分類C、二分類D、聚類【正確答案】:C解析:

AUC是衡量二分類模型優(yōu)劣的一種評(píng)價(jià)指標(biāo)。103.下列不屬于深度學(xué)習(xí)內(nèi)容的是(__)。A、深度置信網(wǎng)絡(luò)B、受限玻爾茲曼機(jī)C、卷積神經(jīng)網(wǎng)絡(luò)D、貝葉斯學(xué)習(xí)【正確答案】:D解析:

貝葉斯學(xué)習(xí)屬于傳統(tǒng)的機(jī)器學(xué)習(xí)算法。104.數(shù)據(jù)資產(chǎn)維護(hù)是指為保證數(shù)據(jù)質(zhì)量,對(duì)數(shù)據(jù)進(jìn)行()等處理的過(guò)程。A、更正B、刪除C、補(bǔ)充錄入D、以上答案都正確【正確答案】:D解析:

數(shù)據(jù)資產(chǎn)維護(hù)是指為保證數(shù)據(jù)質(zhì)量,對(duì)數(shù)據(jù)進(jìn)行更正、刪除、補(bǔ)充錄入等處理的過(guò)程。105.一般而言,在個(gè)體學(xué)習(xí)器性能相差較大時(shí)宜使用(),而在個(gè)體學(xué)習(xí)器性能相近時(shí)宜使用()。A、簡(jiǎn)單平均法,加權(quán)平均法B、加權(quán)平均法,簡(jiǎn)單平均法C、簡(jiǎn)單平均法,簡(jiǎn)單平均法D、加權(quán)平均法,加權(quán)平均法【正確答案】:B解析:

一般而言,在個(gè)體學(xué)習(xí)器性能相差較大時(shí)宜使用加權(quán)平均法,而在個(gè)體學(xué)習(xí)器性能相近時(shí)宜使用簡(jiǎn)單平均法。106.下列關(guān)于支持向量機(jī)優(yōu)化性問(wèn)題的形式說(shuō)法正確的是(__)。A、它是一個(gè)凸二次規(guī)劃問(wèn)題B、它是一個(gè)凸一次規(guī)劃問(wèn)題C、它是一個(gè)凹二次規(guī)劃問(wèn)題D、它是一個(gè)凹一次規(guī)劃問(wèn)題【正確答案】:A解析:

支持向量機(jī)優(yōu)化性問(wèn)題的一個(gè)凸二次規(guī)劃問(wèn)題。107.考慮以下問(wèn)題:假設(shè)我們有一個(gè)5層的神經(jīng)網(wǎng)絡(luò),這個(gè)神經(jīng)網(wǎng)絡(luò)在使用一個(gè)4GB顯存顯卡時(shí)需要花費(fèi)3個(gè)小時(shí)來(lái)完成訓(xùn)練。而在測(cè)試過(guò)程中,單個(gè)數(shù)據(jù)需要花費(fèi)2秒的時(shí)間。如果我們現(xiàn)在把架構(gòu)變換一下,當(dāng)評(píng)分是0.2和0.3時(shí),分別在第2層和第4層添加Dropout,那么新架構(gòu)的測(cè)試所用時(shí)間會(huì)變?yōu)槎嗌??A、少于2sB、大于2sC、仍是2sD、說(shuō)不準(zhǔn)【正確答案】:C108.圖像降噪一般可分為以下哪幾類()。A、加性噪聲B、乘性噪聲C、量化噪聲D、以上答案都正確【正確答案】:D解析:

噪聲是圖像干擾的重要原因。一幅圖像在實(shí)際應(yīng)用中可能存在各種各樣的噪聲,這些噪聲可能在傳輸中產(chǎn)生,也可能在量化等處理中產(chǎn)生。根據(jù)噪聲和信號(hào)的關(guān)系可將其分為三種形式:(f(x,y)表示給定原始圖像,g(x,y)表示圖像信號(hào),n(x,y)表示噪聲。)加性噪聲,此類噪聲與輸入圖像信號(hào)無(wú)關(guān),含噪圖像可表示為f(x,y)=g(x,y)+n(x,y),信道噪聲及光導(dǎo)攝像管的攝像機(jī)掃描圖像時(shí)產(chǎn)生的噪聲就屬這類噪聲;乘性噪聲,此類噪聲與圖像信號(hào)有關(guān),含噪圖像可表示為f(x,y)=g(x,y)+n(x,y)g(x,y),飛點(diǎn)掃描器掃描圖像時(shí)的噪聲,電視圖像中的相干噪聲,膠片中的顆粒噪聲就屬于此類噪聲。量化噪聲,此類噪聲與輸入圖像信號(hào)無(wú)關(guān),是量化過(guò)程存在量化誤差,再反映到接收端而產(chǎn)生。109.以下()屬于DMM(數(shù)據(jù)管理成熟度模型)中的關(guān)鍵過(guò)程域“數(shù)據(jù)戰(zhàn)略”。A、數(shù)據(jù)戰(zhàn)略制定B、業(yè)務(wù)術(shù)語(yǔ)表C、數(shù)據(jù)質(zhì)量評(píng)估D、過(guò)程質(zhì)量保障【正確答案】:A解析:

數(shù)據(jù)戰(zhàn)略制定屬于DMM(數(shù)據(jù)管理成熟度模型)中的關(guān)鍵過(guò)程域“數(shù)據(jù)戰(zhàn)略”。110.在MapReduce計(jì)算架構(gòu)中,()組件運(yùn)行在DataNode上,具體管理本節(jié)點(diǎn)計(jì)算任務(wù)的執(zhí)行。A、Client;B、JobTracker;C、TaskTracker;D、Task;【正確答案】:C解析:

TaskTracker組件運(yùn)行在DataNode上,具體管理本節(jié)點(diǎn)計(jì)算任務(wù)的執(zhí)行。111.在情感分析中,下面哪個(gè)詞不屬于影響詞()。A、識(shí)別B、開(kāi)心C、難過(guò)D、無(wú)聊【正確答案】:A解析:

識(shí)別一詞與情感無(wú)關(guān)。112.關(guān)于數(shù)據(jù)產(chǎn)品,以下說(shuō)法錯(cuò)誤的是()。A、數(shù)據(jù)產(chǎn)品的存在形式是數(shù)據(jù)集B、與傳統(tǒng)物質(zhì)產(chǎn)品不同的是,數(shù)據(jù)產(chǎn)品的消費(fèi)者不僅限于人類用戶.還可以是計(jì)算機(jī)以及其他軟硬件系統(tǒng)C、數(shù)據(jù)產(chǎn)品不僅包括數(shù)據(jù)科學(xué)項(xiàng)目的最終產(chǎn)品,也包括其中間產(chǎn)品以及副產(chǎn)品D、數(shù)據(jù)產(chǎn)品開(kāi)發(fā)涉及數(shù)據(jù)科學(xué)項(xiàng)目流程的全部活動(dòng)【正確答案】:A解析:

數(shù)據(jù)產(chǎn)品的存在形式不僅限于數(shù)據(jù)集,還包括文檔、知識(shí)庫(kù)、應(yīng)用系統(tǒng)、硬件系統(tǒng)、服務(wù)、洞見(jiàn)、決策或它們的組合。113.基于統(tǒng)計(jì)的異常點(diǎn)檢測(cè)算法不包括A、基于正態(tài)分布的異常點(diǎn)檢測(cè)算法B、基于距離的異常點(diǎn)檢測(cè)算法C、3δ原則D、簡(jiǎn)單統(tǒng)計(jì)分析【正確答案】:B114.打開(kāi)文本文件時(shí),通過(guò)file.readlines()返回的數(shù)據(jù)是A、一次讀入,返回一個(gè)列表格式的數(shù)據(jù),每行數(shù)據(jù)是一個(gè)元素B、多次讀入,每次讀入一行數(shù)據(jù)C、一次寫(xiě)入,每次寫(xiě)入一行數(shù)據(jù)D、多次寫(xiě)入,寫(xiě)入一個(gè)列表,每行數(shù)據(jù)是一個(gè)元素【正確答案】:A解析:

《Python數(shù)據(jù)分析基礎(chǔ)》,人民郵電出版社115.下面代碼的輸出結(jié)果是x=0x0101print(x)A、5B、101C、257D、65【正確答案】:C116.關(guān)聯(lián)規(guī)則的評(píng)價(jià)指標(biāo)是____。A、均方誤差、均方根誤差B、Kappa統(tǒng)計(jì)、顯著性檢驗(yàn)C、支持度、置信度D、平均絕對(duì)誤差、相對(duì)誤差【正確答案】:C117.關(guān)于嶺回歸,下列說(shuō)法錯(cuò)誤的是()。A、屬于線性回歸B、使用L2正規(guī)項(xiàng)C、使用L1正規(guī)項(xiàng)D、基于最小二乘法【正確答案】:C解析:

《機(jī)器學(xué)習(xí)》,清華大學(xué)出版社118.在大規(guī)模的語(yǔ)料中,挖掘詞的相關(guān)性是一個(gè)重要的問(wèn)題。以下哪一個(gè)信息不能用于確定兩個(gè)詞的相關(guān)性()。A、互信息B、最大熵C、卡方檢驗(yàn)D、最大似然比【正確答案】:B解析:

最大熵為尋找最優(yōu)模型的方法,并不能度量相似性。119.()是M-P神經(jīng)元,也稱為閾值邏輯單元。A、輸入層B、輸出層C、第一層D、第二層【正確答案】:B解析:

感知機(jī)(Perceptron)由兩層神經(jīng)元組成,輸入層接收外界輸入信號(hào)后傳遞給輸出層,輸出層是M-P神經(jīng)元,亦稱閾值邏輯單元(thresholdlogicunit)。120.在比較模型的擬合效果時(shí),甲、乙、丙三個(gè)模型的相關(guān)指數(shù)R^2的值分別約為0.71、0.85、0.90,則擬合效果較好的模型是()。A、甲B、乙C、丙D、效果一樣【正確答案】:C解析:

R^2的取值為0-1,越靠近1,擬合效果越好。121.一篇文章中某些名詞的TF-IDF值比較大,則說(shuō)明()。A、這些名詞對(duì)這篇文章的區(qū)分度比較高B、這些名詞對(duì)這篇文章的區(qū)分度比較低C、不能說(shuō)明什么D、以上答案都不正確【正確答案】:A解析:

TF-IDF是一種統(tǒng)計(jì)方法,用以評(píng)估一字詞對(duì)于一個(gè)文件集或一個(gè)語(yǔ)料庫(kù)中的其中一份文件的重要程度。名詞的TF-IDF值越大說(shuō)明這些名詞對(duì)這篇文章的區(qū)分度越高。122.np.floor()函數(shù)的作用是()。A、計(jì)算每個(gè)元素的模;B、計(jì)算每個(gè)元素的符號(hào);C、計(jì)算小于每個(gè)元素的最大整數(shù)值;D、計(jì)算每個(gè)元素的小數(shù)部分;【正確答案】:C解析:

floor()取小于元素的最大整數(shù)值,借用英文地板的意思。123..由于變量在使用之前不需要類型聲明而且不允許隱式類型轉(zhuǎn)換,因此python是一門()、()的語(yǔ)言A、靜態(tài)弱類型B、動(dòng)態(tài)弱類型C、動(dòng)態(tài)強(qiáng)類型D、靜態(tài)強(qiáng)類型【正確答案】:C124.運(yùn)行下面的代碼后,變量n的類型是()。n={}A、setB、listC、未知類型D、dict【正確答案】:D解析:

{}代表dict。125.當(dāng)()時(shí),可以不考慮RDD序列化處理。A、完成成本比較高的操作后B、執(zhí)行容易失敗的操作之前C、RDD被重復(fù)利用D、實(shí)時(shí)性要求高【正確答案】:D解析:

RDD的序列化處理,主要在完成成本比較高的操作之后、執(zhí)行容易失敗的操作之前、當(dāng)RDD被重復(fù)使用或者計(jì)算其代價(jià)很高時(shí)進(jìn)行。126.a=[[1.,2.,1.],[1.,2.,1.]],a+3的值為()。A、[[1,2,1],[4,5,4]]B、[[4,5,4],[4,5,4]]C、[[4,5,4],[1,2,1]]D、以上答案都不正確【正確答案】:D解析:

列表不能和數(shù)字相加,因此會(huì)報(bào)錯(cuò)。127.下列算法中屬于圖像平滑處理的是()。A、梯度銳化B、直方圖均衡化C、中值濾波D、Laplacian增強(qiáng)【正確答案】:C解析:

中值濾波是一種非線性平滑技術(shù),是常用的圖像平滑處理方法。128.負(fù)責(zé)關(guān)鍵信息基礎(chǔ)設(shè)施安全保護(hù)工作的部門,應(yīng)當(dāng)建立健全本行業(yè)、本領(lǐng)域的網(wǎng)絡(luò)安全監(jiān)測(cè)預(yù)警和(____),并按照規(guī)定報(bào)送網(wǎng)絡(luò)安全監(jiān)測(cè)預(yù)警信息。A、網(wǎng)絡(luò)安全風(fēng)控機(jī)制B、信息通報(bào)制度C、網(wǎng)絡(luò)安全風(fēng)險(xiǎn)庫(kù)D、信息預(yù)警制度【正確答案】:B解析:

《中華人民共和國(guó)網(wǎng)絡(luò)安全法》第52條129.下列不屬于action操作的是()A、collectB、filterC、reduceD、count【正確答案】:B解析:

Action常用的函數(shù)為reduce、collect、count、take、first、foreach等130.一般將原始業(yè)務(wù)數(shù)據(jù)分為多個(gè)部分,()用于模型的構(gòu)建。A、訓(xùn)練集B、測(cè)試集C、驗(yàn)證集D、全部數(shù)據(jù)【正確答案】:A解析:

訓(xùn)練集、測(cè)試集和驗(yàn)證集的功能分別為訓(xùn)練模型、測(cè)試模型以及模型選擇與超級(jí)參數(shù)的調(diào)優(yōu)。131.數(shù)據(jù)資產(chǎn)應(yīng)用以安全可控為前提,按照()的原則,落實(shí)安全與保密責(zé)任。A、誰(shuí)經(jīng)手,誰(shuí)使用,誰(shuí)負(fù)責(zé)B、誰(shuí)主管,誰(shuí)負(fù)責(zé)C、誰(shuí)使用,誰(shuí)主管,誰(shuí)負(fù)責(zé)D、誰(shuí)錄入,誰(shuí)使用,誰(shuí)負(fù)責(zé)【正確答案】:A解析:

數(shù)據(jù)資產(chǎn)應(yīng)用以安全可控為前提,按照誰(shuí)經(jīng)手,誰(shuí)使用,誰(shuí)負(fù)責(zé)的原則,落實(shí)安全與保密責(zé)任。132.下列()模塊包括用于加載和獲取流行的參考數(shù)據(jù)集的方法。A、sklearn.dataB、sklearn.datasetsC、sklearn.datasD、sklearn.datafetch【正確答案】:B解析:

sklearn.datasets模塊提供了用于加載和獲取流行的參考數(shù)據(jù)集的方法。133.下面代碼的執(zhí)行結(jié)果是>>>abs(-3+4j)A、3B、4C、5D、執(zhí)行錯(cuò)誤【正確答案】:C134.回歸問(wèn)題和分類問(wèn)題的區(qū)別是什么?A、回歸問(wèn)題與分類問(wèn)題在輸入屬性值上要求不同B、回歸問(wèn)題有標(biāo)簽,分類問(wèn)題沒(méi)有C、回歸問(wèn)題輸出值是連續(xù)的,分類問(wèn)題輸出值是離散的D、回歸問(wèn)題輸出值是離散的,分類問(wèn)題輸出值是連續(xù)的【正確答案】:C解析:

機(jī)器學(xué)習(xí)135.第一數(shù)字定律中使用概率最大的數(shù)字是()。A、0B、1C、2D、3【正確答案】:B解析:

第一數(shù)字定律表示,數(shù)字“1”的使用最多接近三分之一,“2”為6%,“3”為12.5%,依次遞減,“9”的頻率是4.6%。136.大數(shù)據(jù)的4V特性不包括()。A、Volume(大量)B、Velocity(高速)C、Visual(可視)D、Variety(多樣)【正確答案】:C解析:

通常,用4V來(lái)表示大數(shù)據(jù)的基本特征:Volume(數(shù)據(jù)量大)、Variety(類型多)、137.scipy.stats.fit函數(shù)的作用是()。A、隨機(jī)變量的生存函數(shù)B、對(duì)數(shù)據(jù)進(jìn)行擬合,找出最適合采樣數(shù)據(jù)的概率密度函數(shù)系數(shù)C、計(jì)算隨機(jī)變量的期望和方差D、隨機(jī)變量的概率密度函數(shù)【正確答案】:B解析:

fit是對(duì)數(shù)據(jù)的擬合。138.大數(shù)據(jù)的最顯著特征是()。A、數(shù)據(jù)規(guī)模大B、數(shù)據(jù)類型多樣C、數(shù)據(jù)處理速度快D、數(shù)據(jù)價(jià)值密度高【正確答案】:A解析:

《大數(shù)據(jù)》李聯(lián)寧著139.假定你現(xiàn)在訓(xùn)練了一個(gè)線性SVM并推斷出這個(gè)模型出現(xiàn)了欠擬合現(xiàn)象,在下一次訓(xùn)練時(shí),應(yīng)該采取下列什么措施()A、增加數(shù)據(jù)點(diǎn)B、減少數(shù)據(jù)點(diǎn)C、增加特征D、減少特征【正確答案】:C解析:

欠擬合是指模型擬合程度不高,數(shù)據(jù)距離擬合曲線較遠(yuǎn),或指模型沒(méi)有很好地捕捉到數(shù)據(jù)特征,不能夠很好地?cái)M合數(shù)據(jù)??赏ㄟ^(guò)增加特征解決。140.以下代碼的輸出結(jié)果為()。importnumpyasnpa=np.arange(9)b=np.split(3)print(b)A、[012345678]B、[array([0,1,2]),array([3,4,5]),array([6,7,8])]C、[array([0,1,2,3]),array([4,5,6]),array([7,8])]D、沒(méi)有正確答案【正確答案】:B解析:

split將原數(shù)組等分成三個(gè)數(shù)組。141.以下關(guān)于特征工程的說(shuō)法不正確的是A、特征工程指的是把原始數(shù)據(jù)轉(zhuǎn)變?yōu)槟P偷挠?xùn)練數(shù)據(jù)的過(guò)程B、它的目的就是獲取更好的訓(xùn)練數(shù)據(jù)特征,使得機(jī)器學(xué)習(xí)模型逼近這個(gè)上限C、特征工程在機(jī)器學(xué)習(xí)中占有非常重要的作用,一般認(rèn)為括特征構(gòu)建、特征提取、特征選擇三個(gè)部分。D、特征提取是從特征集合中挑選一組具有明顯物理或統(tǒng)計(jì)意義的特征子集。【正確答案】:D142.KNN最近鄰分類算法的過(guò)程()1.計(jì)算訓(xùn)練樣本和測(cè)試樣本中每個(gè)樣本點(diǎn)的距離(常見(jiàn)的距離度量有歐式距離,馬氏距離等);2.對(duì)上面所有的距離值進(jìn)行排序;3.選前k個(gè)最小距離的樣本;4.根據(jù)這k個(gè)樣本的標(biāo)簽進(jìn)行投票,得到最后的分類類別。A、B、C、D、【正確答案】:C解析:

KNN最近鄰分類算法的過(guò)程是:計(jì)算訓(xùn)練樣本和測(cè)試樣本中每個(gè)樣本點(diǎn)的距離(常見(jiàn)的距離度量有歐式距離,馬氏距離等);2.對(duì)上面所有的距離值進(jìn)行排序;3.選前k個(gè)最小距離的樣本;4.根據(jù)這k個(gè)樣本的標(biāo)簽進(jìn)行投票,得到最后的分類類別。143.聚類算法在下列哪個(gè)模塊中()A、sklearn.treeB、sklearn.clusterC、sklearn.ensembleD、sklearn.svm【正確答案】:B解析:

《大數(shù)據(jù)應(yīng)用知識(shí)讀本》144.考察一個(gè)由三個(gè)卷積層組成的CNN:kernel=3×3,stride=2,padding=SAME。最低層輸出100個(gè)特征映射(featuremap),中間層200個(gè)特征映射,最高層400個(gè)特征映射。輸入是200×300的RGB圖片,總參數(shù)的數(shù)量是多少()A、903400B、2800C、180200D、720400【正確答案】:A解析:

第一層中由于第一個(gè)卷積kernel=3×3,輸入有3個(gè)通道(channel),因此每個(gè)特征映射有3×3×3個(gè)weight,加上bias,每個(gè)特征映射對(duì)應(yīng)28個(gè)參數(shù)。由于第一層有100個(gè)特征映射,因此有2800個(gè)參數(shù);第二層中kernel=3×3,輸入是前一層的100個(gè)特征映射,因此每個(gè)特征映射有3×3×100=900個(gè)weight,加上一個(gè)bias。由于共有200個(gè)特征映射,因此需要901×200=180200個(gè)參數(shù);第三層中kernel=3×3,輸入是前一層的200個(gè)特征映射,因此(第三層的)每個(gè)特征映射有3×3×200=1800個(gè)weight,加上bias。由于第三層有400個(gè)特征映射。因此這一層共有1801×400=720400個(gè)參數(shù)?!究偣病恳陨锨蠛凸灿?800+180200+720400=903400個(gè)參數(shù)。145.下列論據(jù)中,能夠支撐“大數(shù)據(jù)無(wú)所不能”的觀點(diǎn)的是()。A、互聯(lián)網(wǎng)金融打破了傳統(tǒng)的觀念和行為B、大數(shù)據(jù)存在泡沫C、大數(shù)據(jù)具有非常高的成本D、個(gè)人隱私泄露與信息安全擔(dān)憂【正確答案】:A解析:

《大數(shù)據(jù)平臺(tái)基礎(chǔ)架構(gòu)指南》146.在Hadoop中,下面哪個(gè)是默認(rèn)的InputFormat類型,它將每行內(nèi)容作為新值,而將字節(jié)偏移量作為key()。A、FileInputFormatB、TextInputFormatC、KeyValueTextInputFormatD、CombineTextInputFormat【正確答案】:B解析:

TextInputFormat是默認(rèn)的InputFormat。每條記錄是一行輸入。鍵Key是LongWritable類型,存儲(chǔ)該行在整個(gè)文件中的字節(jié)偏移量。147.在機(jī)器學(xué)習(xí)中,不屬于常用的沖突消解策略是()。A、投票法B、排序法C、元規(guī)則法D、加權(quán)法【正確答案】:D解析:

常用的沖突消解策略有投票法、排序法、元規(guī)則法等。148.在HadoopMapReduce中,()是客戶端需要執(zhí)行的一個(gè)工作單元。A、InputB、JobClientD、Task【正確答案】:B解析:

MapReduce作業(yè)(job)是客戶端需要執(zhí)行的一個(gè)工作單元它包括輸入數(shù)據(jù)、MapReduce程序和配置信息。149.輸入圖像已被轉(zhuǎn)換為大小為28×28的矩陣和大小為7×7的步幅為1的核心/濾波器。卷積矩陣的大小是多少()A、22X22B、21X21C、28X28D、7X7【正確答案】:A解析:

28-7+1=22。150.在神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)中,感知機(jī)輸出層中的M-P神經(jīng)元通常被稱為()。A、閾值邏輯單元B、激活函數(shù)C、擠壓函數(shù)D、連接函數(shù)【正確答案】:A解析:

深度學(xué)習(xí)基礎(chǔ)知識(shí)。1.卷積神經(jīng)網(wǎng)絡(luò)中,底層的卷積層可以提取到圖片的哪些特征?(____)。A、邊緣B、線段C、局部塊D、以上都不是【正確答案】:AB2.某單位運(yùn)用隨機(jī)森林算法思想建立搶修熱點(diǎn)模型。該模型主要預(yù)測(cè)下期臺(tái)區(qū)工單數(shù)量,構(gòu)建搶修熱點(diǎn)。以下模型算法構(gòu)建步驟中合理的順序是:()。A、將歷史數(shù)據(jù)進(jìn)行隨機(jī)自助法重抽樣,生成N個(gè)訓(xùn)練樣本集B、將N個(gè)訓(xùn)練樣本集分別做決策樹(shù),生成N棵決策樹(shù)C、將N棵決策樹(shù)隨機(jī)構(gòu)成隨機(jī)森林D、未來(lái)根據(jù)預(yù)測(cè)樣本氣候環(huán)境、設(shè)備屬性、設(shè)備工況進(jìn)行隨機(jī)森林決策投票,得出針對(duì)該預(yù)測(cè)樣本最優(yōu)的決策樹(shù)進(jìn)行運(yùn)算,并計(jì)算出最終結(jié)果?!菊_答案】:ABCD解析:

模型算法構(gòu)建步驟為:將歷史數(shù)據(jù)進(jìn)行隨機(jī)自助法重抽樣,生成N個(gè)訓(xùn)練樣本集.2.將N個(gè)訓(xùn)練樣本集分別做決策樹(shù),生成N棵決策樹(shù);3.將N棵決策樹(shù)隨機(jī)構(gòu)成隨機(jī)森林4.未來(lái)根據(jù)預(yù)測(cè)樣本氣候環(huán)境、設(shè)備屬性、設(shè)備工況進(jìn)行隨機(jī)森林決策投票,得出針對(duì)該預(yù)測(cè)樣本最優(yōu)的決策樹(shù)進(jìn)行運(yùn)算,并計(jì)算出最終結(jié)果。3.任何函數(shù)都可以修改,所以盡量少用全局變量,主要原因包括()。A、不夠安全B、一直占用內(nèi)存C、容易失效D、一直占用字符【正確答案】:AB解析:

全局變量安全性差、相關(guān)內(nèi)存一直無(wú)法釋放。4.下面哪些是循環(huán)神經(jīng)網(wǎng)絡(luò)的輸出模式(__)。A、多輸出B、單輸出C、同步多輸出D、異步多輸出【正確答案】:ABD解析:

循環(huán)神經(jīng)網(wǎng)絡(luò)是遞歸的,不可能同步多輸出。5.以下關(guān)于HTML標(biāo)簽嵌套規(guī)則的說(shuō)法,正確的是()。A、塊元素可以包含內(nèi)聯(lián)元素或某些塊元素,但內(nèi)聯(lián)元素也可以包含塊元素B、HTML標(biāo)簽包括塊級(jí)元素和內(nèi)嵌元素C、內(nèi)嵌元素一般用在網(wǎng)站內(nèi)容之中的某些細(xì)節(jié)或部位,用以“強(qiáng)調(diào)區(qū)分樣式上標(biāo)下標(biāo)錨點(diǎn)”等,通常包括:a、abbr、b、br、font、i、img、input、kbd、label、q、s、select、small、span、sub、tt、u、var等D、其中塊級(jí)元素一般用來(lái)搭建網(wǎng)絡(luò)架構(gòu)布局承載內(nèi)容,通常包括的標(biāo)簽有:address、dir、div、dl、dt、dd、form、h1~h6、hr、isindex、menu、noframes、noscript、ol、p、pre、table、ul等【正確答案】:BCD解析:

塊元素可以包含內(nèi)聯(lián)元素或某些塊元素,但內(nèi)聯(lián)元素卻不能包含塊元素,它只能包含其他的內(nèi)聯(lián)元素。6.pandas中刪除列的方式()。A、df.drop(["列名"],axis=1)B、df.drop(columns=["列名"])C、df.drop([0,1])D、df.drop([0])【正確答案】:AB解析:

A和B選項(xiàng)都是刪除列的方式,CD選項(xiàng)沒(méi)有指定axis,默認(rèn)是刪除行。(共89題)7.假設(shè)只有少量數(shù)據(jù)來(lái)解決某個(gè)具體問(wèn)題,但有有個(gè)預(yù)先訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)來(lái)解決類似問(wèn)題??梢杂孟旅婺男┓椒▉?lái)利用這個(gè)預(yù)先訓(xùn)練好的網(wǎng)絡(luò)(____)。A、把除了最后一層外所有的層都凍結(jié),重新訓(xùn)練最一層B、重新訓(xùn)練整個(gè)模型C、只對(duì)最后幾層進(jìn)行微調(diào)D、對(duì)每一層模型進(jìn)行評(píng)估,只使用少數(shù)層【正確答案】:AC8.在Spark的基本流程中,主要涉及()。A、DriverProgramB、CusterManagerC、WorkerNodeD、Executor【正確答案】:ABCD解析:

Spark的基本流程,主要涉及DriverProgram(驅(qū)動(dòng)程序)、Spark-Context、ClusterManager(集群管理器)、WorkerNode(工作節(jié)點(diǎn))、Executor(執(zhí)行器)和Cache(緩存)等角色。9.圖像識(shí)別的精度會(huì)受到以下那些因素的影響()。A、數(shù)據(jù)類別數(shù)量不平衡B、輸入圖像尺寸不同C、圖像中存在類標(biāo)之外的環(huán)境干擾D、圖像中存在隨機(jī)噪聲【正確答案】:ACD解析:

圖像識(shí)別中若圖像存在隨機(jī)噪聲,一是噪聲影響較小,二是可以有預(yù)處理解決噪聲問(wèn)題,并不會(huì)影響圖像識(shí)別精度。10.大數(shù)據(jù)的資產(chǎn)屬性體現(xiàn)在()。A、具有勞動(dòng)增值B、涉及法律權(quán)屬C、具有財(cái)務(wù)價(jià)值D、涉及道德與倫理【正確答案】:ABCD解析:

大數(shù)據(jù)的資產(chǎn)屬性體現(xiàn)在具有勞動(dòng)增值、涉及法律權(quán)屬、具有財(cái)務(wù)價(jià)值、涉及道德與倫理。11.下列哪些是特征選擇方法()。AIC赤池信息準(zhǔn)則B、LARS嵌入式特征選擇方法C、LVW包裹式特征選擇方法D、Relief過(guò)濾式特征選擇方法【正確答案】:BCD解析:

AIC赤池信息準(zhǔn)則是常用的模型選擇方法。12.Python的優(yōu)點(diǎn)有()。A、變量不用預(yù)定義類型B、數(shù)據(jù)結(jié)構(gòu)功能強(qiáng)大C、語(yǔ)言可解釋性強(qiáng)D、變量類型固定【正確答案】:ABC解析:

Python變量在使用前不必定義變量類型。13.當(dāng)我們構(gòu)造線性模型時(shí),我們注意變量間的相關(guān)性。在相關(guān)矩陣中搜索相關(guān)系數(shù)時(shí),如果我們發(fā)現(xiàn)3對(duì)變量的相關(guān)系數(shù)是(Var1和Var2,Var2和Var3,Var3和Var1)是-0.98,0.45,1.23.我們可以得出什么結(jié)論:()。A、Var1和Var2是非常相關(guān)的B、因?yàn)閂a1r和Var2是非常相關(guān)的,我們可以去除其中一個(gè)C、Var3和Var1的1.23相關(guān)系數(shù)是不可能的【正確答案】:ABC解析:

SVM的策略是最大間隔分類器。B.簇內(nèi)的相似性越大,簇間的差別越大,聚類的效果就越好。C.訓(xùn)練誤差減少與測(cè)試誤差逐漸增大,是明顯的過(guò)擬合的特征。14.NoSQL數(shù)據(jù)庫(kù)常用的數(shù)據(jù)模型包括()。A、Key-ValueB、Key-DocumentC、Key-ColumnD、圖存儲(chǔ)【正確答案】:ABCD解析:

NoSQL數(shù)據(jù)庫(kù)常用的數(shù)據(jù)模型包括Key-Value、Key-Document、Key-Column、圖存儲(chǔ)。15.plt.axhline(y=0.0,c="r",ls="--",lw=2),對(duì)這句代碼說(shuō)法正確的是()。A、在0.0處添加豎直參考線B、添加水平參考線C、參考線是虛線形式D、網(wǎng)格線是紅色的【正確答案】:BC解析:

這句代碼添加的是紅色水平參考線,虛線線型。16.與全連接的DNN,CNN的優(yōu)勢(shì)有(____)。A、參數(shù)更少B、泛化更好C、訓(xùn)練更快D、更容易搭建【正確答案】:ABC17.建立線性模型時(shí),我們看變量之間的相關(guān)性。在尋找相關(guān)矩陣中的相關(guān)系數(shù)時(shí),如果發(fā)現(xiàn)3對(duì)變量(Var1和Var2、Var2和Var3、Var3和Var1)之間的相關(guān)性分別為-0.98、0.45和1.23。我們能從中推斷出什么呢()A、Var1和Var2具有很高的相關(guān)性B、Var1和Var2存在多重共線性,模型可以去掉其中一個(gè)特征C、Var3和Var1相關(guān)系數(shù)為1.23是不可能的D、以上答案都不正確【正確答案】:ABC解析:

Var1和Var2之間的相關(guān)性非常高,并且是負(fù)的,可視為多重共線性的情況,可以去掉一個(gè)。一般來(lái)說(shuō),如果相關(guān)大于18.DGI定義的數(shù)據(jù)治理任務(wù)包括()。A、數(shù)據(jù)質(zhì)量的評(píng)估B、主動(dòng)定義或序化規(guī)則C、為數(shù)據(jù)利益相關(guān)者提供持續(xù)跨職能的保護(hù)與服務(wù)D、應(yīng)對(duì)并解決因不遵守規(guī)則而產(chǎn)生的問(wèn)題【正確答案】:BCD解析:

DGI(TheDataGover略ceInstitute)認(rèn)為數(shù)據(jù)治理是對(duì)數(shù)據(jù)相關(guān)的決策及數(shù)據(jù)使用權(quán)限控制的活動(dòng)。它是一個(gè)信息處理過(guò)程中根據(jù)模型來(lái)執(zhí)行的決策權(quán)和承擔(dān)責(zé)任的系統(tǒng),規(guī)定了誰(shuí)可以在什么情況下對(duì)哪些信息做怎樣的處理。19.可視化高維展示技術(shù)在展示數(shù)據(jù)之間的關(guān)系以及數(shù)據(jù)分析結(jié)果方面作()。A、能夠直觀反映成對(duì)數(shù)據(jù)之間的空間關(guān)系B、能夠直觀反映多維數(shù)據(jù)之間的空間關(guān)系C、能夠靜態(tài)演化事物的變化及變化的規(guī)律D、能夠動(dòng)態(tài)演化事物的變化及變化的規(guī)律【正確答案】:BD解析:

可視化高維展示技術(shù)在展示數(shù)據(jù)之間的關(guān)系以及數(shù)據(jù)分析結(jié)果方面能夠直觀反映多維數(shù)據(jù)之間的空間關(guān)系,動(dòng)態(tài)演化事物的變化及變化的規(guī)律。20.Yarn的調(diào)度機(jī)制有哪幾種是__。A、FIFOB、CapacityC、FairD、Line【正確答案】:ABC解析:

Hadoop作業(yè)調(diào)度器主要有三種,分別是FIFO,CapacitySchedule(容量調(diào)度器),F(xiàn)airSchedule(公平調(diào)度器)。21.下列關(guān)于極大似然估計(jì)(MaximumLikelihoodEstimate,MLE),說(shuō)法正確的是(__)。A、MLE可能并不存在B、MLE總是存在C、如果MLE存在,那么它的解可能不是唯一的D、如果MLE存在,那么它的解一定是唯一的【正確答案】:AC解析:

極大似然估計(jì)方法(MaximumLikelihoodEstimate,MLE)也稱最大概似估計(jì)或最大似然估計(jì):利用已知的樣本結(jié)果,反推最有可能(最大概率)導(dǎo)致這樣的結(jié)果的參數(shù)值。極大似然估計(jì),只是一種概率論在統(tǒng)計(jì)學(xué)的應(yīng)用,它是參數(shù)估計(jì)的方法之一。說(shuō)的是已知某個(gè)隨機(jī)樣本滿足某種概率分布,但是其中具體的參數(shù)不清楚,參數(shù)估計(jì)就是通過(guò)若干次試驗(yàn),觀察其結(jié)果,利用結(jié)果推出參數(shù)的大概值。極大似然估計(jì)是建立在這樣的思想上:已知某個(gè)參數(shù)能使這個(gè)樣本出現(xiàn)的概率最大,我們當(dāng)然不會(huì)再去選擇其他小概率的樣本,所以干脆就把這個(gè)參數(shù)作為估計(jì)的真實(shí)值。當(dāng)然極大似然估計(jì)只是一種粗略的數(shù)學(xué)期望,要知道它的誤差大小還要做區(qū)間估計(jì)。22.以下四個(gè)選項(xiàng)中,()是Python關(guān)鍵字。A、asB、globalC、intD、not【正確答案】:ABD解析:

詳見(jiàn)Python關(guān)鍵字列表。23.CNN相比于全連接的DNN有哪些優(yōu)勢(shì)()A、參數(shù)更少B、泛化更好C、訓(xùn)練更快D、更容易搭建;【正確答案】:ABC解析:

D:DNN直接對(duì)數(shù)據(jù)做加權(quán)線性連接,而CNN則是移動(dòng)卷積核,并對(duì)圖像中的各區(qū)域做卷積操作。24.Python邏輯表達(dá)式()的結(jié)果是False。A、not(TrueorFalse)B、not(FalseandFalse)C、1!=0D、1==0【正確答案】:AD解析:

FalseandFalse結(jié)果為False。25.一個(gè)監(jiān)督觀測(cè)值集合會(huì)被劃分為()。A、訓(xùn)練集B、驗(yàn)證集C、測(cè)試集D、預(yù)處理集【正確答案】:ABC解析:

一個(gè)監(jiān)督觀測(cè)值集合會(huì)被劃分為訓(xùn)練集、測(cè)試集、預(yù)測(cè)集。其中測(cè)試集來(lái)測(cè)試學(xué)習(xí)器對(duì)新樣本的判別能力,然后以測(cè)試集上的測(cè)試誤差(testingerror)作為泛化誤差的近似。26.數(shù)據(jù)科學(xué)基本原則中,三世界原則指的是()A、我們的世界B、數(shù)據(jù)世界C、物理世界D、數(shù)字世界【正確答案】:ABC解析:

大數(shù)據(jù)時(shí)代的到來(lái),在我們的“精神世界”和“物理世界”之間出現(xiàn)了一種新的世界——“數(shù)據(jù)世界”。因此,在數(shù)據(jù)科學(xué)中,通常需要研究如何運(yùn)用“數(shù)據(jù)世界”中已存在的“痕跡數(shù)據(jù)”的方式解決“物理世界”中的具體問(wèn)題,而不是直接到“物理世界”,采用問(wèn)卷和訪談等方法親自收集“采訪數(shù)據(jù)”。相對(duì)于“采訪數(shù)據(jù)”,“痕跡數(shù)據(jù)”更具有客觀性。圖靈獎(jiǎng)獲得者JimGray提出的科學(xué)研究第四范式——數(shù)據(jù)密集型科學(xué)發(fā)現(xiàn)(Data-intensiveScientificDiscovery)是“三世界原則”的代表性理論之一。27.常見(jiàn)的圖像分割算法有()。A、基于區(qū)域的分割方法B、基于人工勾畫(huà)的分割方法C、基于邊緣的分割方法D、基于閾值的分割方法【正確答案】:ACD解析:

人工勾畫(huà)太過(guò)耗時(shí),并不能作為常見(jiàn)的圖像分割方法。28.常用的沖突消解策略有包括()。A、投票法B、排序法C、元規(guī)則法D、調(diào)研法【正確答案】:ABC解析:

常用的沖突消解策略有包括:投票法,排序法,元規(guī)則法。29.Numpy中計(jì)算數(shù)組的標(biāo)準(zhǔn)差和方差的函數(shù)是()。A、std()B、diff()C、exp()D、var()【正確答案】:AD解析:

std()是標(biāo)準(zhǔn)差,var()是方差。30.Hadoop組件Flume三層架構(gòu)包括()。AgentB、GossipCollectorD、Storage【正確答案】:ACD解析:

Flume采用了三層架構(gòu),分別為agent,collector和storage,每一層均可以水平擴(kuò)展。agent用于采集數(shù)據(jù),agent是flume中存儲(chǔ)數(shù)據(jù)流的地方,同時(shí)agent會(huì)將產(chǎn)生的數(shù)據(jù)傳輸?shù)絚ollector;Collector的作用是堅(jiān)多個(gè)agent的數(shù)據(jù)匯總后,加載到storage中,多個(gè)collector之間遵循負(fù)載均衡規(guī)則;Storage是存儲(chǔ)系統(tǒng),可以是一個(gè)普通file,也可以是HDFS,HIVE,Hbase等。31.Hadoop框架的缺陷有()。A、MR編程框架的限制;B、過(guò)多的磁盤(pán)操作,缺乏對(duì)分布式內(nèi)存的支持;C、無(wú)法高效支持迭代式計(jì)算;D、不支持多用戶寫(xiě)入并任意修改文件;【正確答案】:ABCD解析:

以上四項(xiàng)都為Hadoop的缺點(diǎn)。32.在Hive架構(gòu)中支持對(duì)數(shù)據(jù)的操作有()。A、插入B、查詢C、刪除D、分析;【正確答案】:BD解析:

Hive提供簡(jiǎn)單的HiveQL查詢功能;Hive可以較好地滿足基于數(shù)據(jù)倉(cāng)庫(kù)的統(tǒng)計(jì)分析需要。33.以下選項(xiàng)中,屬于MapReduce特征的有()。A、以主從結(jié)構(gòu)的形式運(yùn)行B、容錯(cuò)機(jī)制的復(fù)雜性C、任務(wù)備份機(jī)制的必要性D、數(shù)據(jù)存儲(chǔ)位置固定【正確答案】:ABC解析:

數(shù)據(jù)存儲(chǔ)位置具有多樣性,并非固定,所以D錯(cuò)。34.下列關(guān)于集合操作結(jié)果正確的有()。A、name={‘d’,‘s’}nameadd(‘sd’)name值為:{‘sd’,‘d’,‘s’}B、name={‘sd’,d’,‘s’}nameremove(‘s’)name值為:{‘sd’,‘d’}C、name={‘sd’,d’,‘s’}nameclear()name值為:{}D、name={‘sd’,d’,‘s’}nameupdate(‘df’)name值為:{‘sd’,’d’,‘f’,’s’,’j’}【正確答案】:ABC解析:

D結(jié)果應(yīng)為{'d','f','s','sd'}。35.我們想要訓(xùn)練一個(gè)ML模型,樣本數(shù)量有100萬(wàn)個(gè),特征維度是5000,面對(duì)如此大數(shù)據(jù),如何有效地訓(xùn)練模型()A、對(duì)訓(xùn)練集隨機(jī)采樣,在隨機(jī)采樣的數(shù)據(jù)上建立模型B、嘗試使用在線機(jī)器學(xué)習(xí)算法C、使用PCA算法減少特征維度【正確答案】:ABC解析:

大數(shù)據(jù)可以采用對(duì)訓(xùn)練集隨機(jī)采樣,在隨機(jī)采樣的數(shù)據(jù)上建立模型,嘗試使用在線機(jī)器學(xué)習(xí)算法,使用PCA算法減少特征維度。36.變量名可以包含()。A、字母B、數(shù)字C、下劃線D、空格【正確答案】:ABC解析:

變量名可以包含字母數(shù)字下劃線,但不能以數(shù)字開(kāi)頭。37.下面定義函數(shù)正確的是()。A、defcalc(*numbers):sum=0forninnumbers:sum=sum+n*nreturnsumB、defcalc(**numbers):sum=0forninnumbers:sum=sum+n*nreturnsumC、defcalc(**numbers,n):sum=0forninnumbers:sum=sum+n*nreturnsumD、defcalc(**numbers,n=0):sum=0forninnumbers:sum=sum+n*nreturnsum【正確答案】:AB解析:

函數(shù)不定長(zhǎng)參數(shù)*args和**kwargs只能放在形參的末尾,因此AB正確,CD錯(cuò)誤。38.數(shù)據(jù)來(lái)源和目標(biāo)用戶已定的情況下,不同視覺(jué)通道的表現(xiàn)力不同。視覺(jué)通道的表現(xiàn)力的評(píng)價(jià)指標(biāo)包括()。A、精確性B、可辨認(rèn)性C、可分離性D、視覺(jué)突出性【正確答案】:ABCD解析:

在數(shù)據(jù)來(lái)源和目標(biāo)用戶已定的情況下,不同視覺(jué)通道的表現(xiàn)力不同。視覺(jué)通道的表現(xiàn)力

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論