2023年大數(shù)據(jù)應(yīng)用技能競賽考試題庫(精簡500題)_第1頁
2023年大數(shù)據(jù)應(yīng)用技能競賽考試題庫(精簡500題)_第2頁
2023年大數(shù)據(jù)應(yīng)用技能競賽考試題庫(精簡500題)_第3頁
2023年大數(shù)據(jù)應(yīng)用技能競賽考試題庫(精簡500題)_第4頁
2023年大數(shù)據(jù)應(yīng)用技能競賽考試題庫(精簡500題)_第5頁
已閱讀5頁,還剩133頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

PAGEPAGE1382023年大數(shù)據(jù)應(yīng)用技能競賽考試題庫(精簡500題)一、單選題1.random庫中用于生成隨機(jī)小數(shù)的函數(shù)是()。A、random()B、randint()C、getrandbits()D、randrange()答案:A2.以下哪些方法不可以直接來對文本分類()A、KmeansB、決策樹C、支持向量機(jī)D、KNN答案:A3.下列哪些不是目前機(jī)器學(xué)習(xí)所面臨的問題是()。A、測試集的規(guī)模B、維度災(zāi)難C、特征工程D、過擬合答案:A4.卷積神經(jīng)網(wǎng)絡(luò)能通過卷積以及池化等操作將不同種類的鳥歸為一類。關(guān)于卷積神經(jīng)網(wǎng)絡(luò)能達(dá)到該效果的原因,下列說法不正確的是()。A、同樣模式的內(nèi)容(如鳥嘴)在圖像不同位置可能出現(xiàn)B、池化之后的圖像主體內(nèi)容基本不變C、不同種類鳥的相同部位(如鳥嘴)形狀相似D、池化作用能使不同種類鳥變得相似答案:D5.關(guān)于正態(tài)分布,下列說法錯(cuò)誤的是()。A、正態(tài)分布具有集中性和對稱性B、正態(tài)分布的均值和方差能夠決定正態(tài)分布的位置和形態(tài)C、正態(tài)分布的偏度為0,峰度為1D、標(biāo)準(zhǔn)正態(tài)分布的均值為0,方差為1答案:C6.以下代碼的輸出結(jié)果為()。ImportnumpyasnpA=np.array(【-1.7,1.5,-0.2,0.6,10】)Print(np.ceil(a))A、【-1.71.5-0.20.610.】B、【-2.1.-1.0.10.】C、【-1.71.5-0.20.610.】D、【-1.2.-0.1.10.】答案:D7.下面說法錯(cuò)誤的是()。A、可以利用統(tǒng)計(jì)量對缺失值進(jìn)行填補(bǔ)B、可以利用K近鄰值對缺失值進(jìn)行填補(bǔ)C、只要有缺失值就必須把對應(yīng)記錄刪除D、對于缺失值較多的屬性可以考慮刪除答案:C8.以下()屬于NoSQL數(shù)據(jù)庫中Key-Value的缺點(diǎn)。A、數(shù)據(jù)無結(jié)構(gòu)B、查詢性能不高,缺乏統(tǒng)一查詢語法C、功能相對有限D(zhuǎn)、功能相對有限,不易于做分布式集群答案:A9.以下關(guān)于新舊MapReduceAPI的描述錯(cuò)誤的是()A、新API放在org.apache.hadoop.mapreduce包中,而舊API則是放在org.apache.hadoop.mapred中B、新API傾向于使用接口方式,而舊API傾向于使用抽象類C、新API使用Configuration,而舊API使用JobConf來傳遞配置信息D、新API可以使用Job對象來提交作業(yè)答案:B10.ordinalencoder將屬性轉(zhuǎn)化為()。A、獨(dú)熱編碼B、附帶特性的數(shù)字C、二進(jìn)制編碼D、ASCII碼答案:B11.在linux下預(yù)裝了Python2,Python3且默認(rèn)Python版本為Python3,下列描述可以正確啟動Python有()。A、在linux應(yīng)用程序Terminal,打開一個(gè)終端窗口。輸入whichPythonB、在linux應(yīng)用程序Terminal,打開一個(gè)終端窗口。輸入Python2或Python3C、在linux應(yīng)用程序Terminal,打開一個(gè)終端窗口。輸入whichPython3D、在linux應(yīng)用程序Terminal,打開一個(gè)終端窗口。輸入輸入whichPython2答案:B12.以下可以應(yīng)用關(guān)鍵詞提取的是()。A、文獻(xiàn)檢索B、自動文摘C、文本聚類/分類D、以上答案都正確答案:D13.下面哪一項(xiàng)用決策樹法訓(xùn)練大量數(shù)據(jù)集最節(jié)約時(shí)間()。A、增加樹的深度B、增加學(xué)習(xí)率C、減少數(shù)的深度D、減少樹的個(gè)數(shù)答案:C14.大數(shù)據(jù)環(huán)境下的隱私擔(dān)憂,主要表現(xiàn)為()A、人信息的被識別與暴露B、戶畫像的生成C、意廣告的推送D、毒入侵答案:A15.下列關(guān)于RNN說法正確的是(__)。A、RNN可以應(yīng)用在NLP領(lǐng)域B、LSTM是RNN的一個(gè)變種C、在RNN中一個(gè)序列當(dāng)前的輸出與前面的輸出也有關(guān)D、以上答案都正確答案:D16.np.linalg.svd()函數(shù)可以實(shí)現(xiàn)()功能。A、計(jì)算協(xié)方差矩陣B、實(shí)現(xiàn)奇異值分解C、計(jì)算方差D、計(jì)算均值;答案:B17.k-NN最近鄰方法在什么情況下效果較好()A、樣本較多但典型性不好B、樣本較少但典型性好C、樣本呈團(tuán)狀分布D、樣本呈鏈狀分布答案:B18.當(dāng)()時(shí),可以不考慮RDD序列化處理。A、完成成本比較高的操作后B、執(zhí)行容易失敗的操作之前C、RDD被重復(fù)利用D、實(shí)時(shí)性要求高答案:D19.數(shù)據(jù)探索是指針對目標(biāo)可變、持續(xù)、多角度的搜索或分析任務(wù),下列哪項(xiàng)不是其搜索過程的特點(diǎn)()。A、有選擇B、有策略C、有目標(biāo)D、反復(fù)進(jìn)行的答案:C20.下列關(guān)于數(shù)據(jù)科學(xué)流程與方法的描述中,錯(cuò)誤的是()。A、數(shù)據(jù)科學(xué)的基本流程包括數(shù)據(jù)化、數(shù)據(jù)加工(DataWrangling或DataMunging)、數(shù)據(jù)規(guī)整化、探索性分析、數(shù)據(jù)分析與洞見、結(jié)果展現(xiàn)以及數(shù)據(jù)產(chǎn)品的提供B、對于數(shù)據(jù)形態(tài)不符合要求的亂數(shù)據(jù),要通過清洗成為規(guī)整數(shù)據(jù)C、數(shù)據(jù)分析包括描述性分析、診斷性分析、預(yù)測性分析和規(guī)范性分析D、數(shù)據(jù)可視化會遇到視覺假象問題,人眼對亮度和顏色的相對判斷容易造成視覺假象答案:B21.彩色圖像增強(qiáng)時(shí),()處理可以采用RGB。A、直方圖均衡化B、同態(tài)濾波C、加權(quán)均值濾波D、中值濾波答案:C22.以下關(guān)于pandas中g(shù)roupby方法說法正確的是()。A、groupby能夠?qū)崿F(xiàn)分組聚合B、groupby方法的結(jié)果能夠直接查看C、groupby是pandas提供的一個(gè)用來分組的方法D、groupby方法是pandas提供的一個(gè)用來聚合的方法答案:C23.MapReduce編程模型,鍵值對<key,value>的key必須實(shí)現(xiàn)哪個(gè)接口()A、Writableparable;B、parable;C、Writable;D、LongWritable;答案:A24.下列()不是神經(jīng)網(wǎng)絡(luò)的代表。A、卷積神經(jīng)網(wǎng)絡(luò)B、遞歸神經(jīng)網(wǎng)絡(luò)C、殘差網(wǎng)絡(luò)D、xgboost算法答案:D25.某籃運(yùn)動員在三分線投球的命中率是2(1),他投球10次,恰好投進(jìn)3個(gè)球的概率()。A、128(15)B、16(3)C、8(5)D、16(7)答案:A26.標(biāo)準(zhǔn)正態(tài)分布的均數(shù)與標(biāo)準(zhǔn)差是()。A、0,1B、1,0C、0,0D、1,1答案:A27.為提高計(jì)算性能,Spark中Transformation操作采用的是()計(jì)算模式。A、活性B、惰性C、實(shí)時(shí)D、非實(shí)時(shí)答案:B28.matplotlib中的step函數(shù)繪制的是什么圖()。A、階梯圖B、直方圖C、間斷條形圖D、堆積折線圖答案:A29.下面()負(fù)責(zé)MapReduce任務(wù)調(diào)度。A、NameNodeB、JobtrackerC、TaskTrackerD、secondaryNameNode答案:B30.()計(jì)算框架源自一種分布式計(jì)算模型,其輸入和輸出值均為“鍵-值對”結(jié)構(gòu)。A、MahoutB、MapReduceC、SparkD、Sqoop答案:B31.Hadoop中biner()函數(shù)的功能是()。A、數(shù)據(jù)排序B、數(shù)據(jù)標(biāo)記C、數(shù)據(jù)分析D、數(shù)據(jù)合并答案:D32.假設(shè)函數(shù)中不包括global保留字,對于改變參數(shù)值的方法,以下選項(xiàng)中錯(cuò)誤的是()。A、參數(shù)是列表類型時(shí),改變原參數(shù)的值B、參數(shù)的值是否改變與函數(shù)中對變量的操作有關(guān),與參數(shù)類型無關(guān)C、參數(shù)是整數(shù)類型時(shí),不改變原參數(shù)的值D、參數(shù)是組合類型(可變對象)時(shí),改變原參數(shù)的值答案:B33.下面哪個(gè)屬于映射數(shù)據(jù)到新的空間的方法()。A、傅立葉變換B、特征加權(quán)C、漸進(jìn)抽樣D、維歸約答案:A34.下列關(guān)于運(yùn)算符優(yōu)先級的說法中,不正確的一個(gè)是()。A、運(yùn)算符按照優(yōu)先級順序表進(jìn)行運(yùn)算B、同一優(yōu)先級的運(yùn)算符在表達(dá)式中都是按照從左到右的順序進(jìn)行運(yùn)算的C、同一優(yōu)先級的運(yùn)算符在表達(dá)式中都是按照從右到左的順序進(jìn)行運(yùn)算的D、括號可以改變運(yùn)算的優(yōu)先次序答案:C35.matplotlib中的legend函數(shù)作用是什么()。A、設(shè)置標(biāo)簽文本B、繪制網(wǎng)格線C、標(biāo)示不同圖形的文本標(biāo)簽圖例D、設(shè)置x軸的數(shù)值顯示范圍答案:C36.為了降低MapReduce兩個(gè)階段之間的數(shù)據(jù)傳遞量,一般采用()函數(shù)對map階段的輸出進(jìn)行處理。A、sort()B、biner()C、join()D、gather()答案:B37.以下不屬于有監(jiān)督的詞義消歧方法的是()。A、Flip-Flop算法B、貝葉斯分類器C、最大熵消歧D、基于詞典的消歧答案:D38.如果我們說線性回歸模型完美地?cái)M合了訓(xùn)練樣本(訓(xùn)練樣本誤差為零),則下面哪個(gè)說法是正確的()A、測試樣本誤差始終為零B、測試樣本誤差不可能為零C、以上答案都不對答案:C39.視覺通道表現(xiàn)力評價(jià)指標(biāo)不包括()。A、精確性B、可辨認(rèn)性C、可分離性D、可轉(zhuǎn)換性答案:D40.下列哪個(gè)不是RDD的緩存方法()A、persistB、cacheC、MemoryD、以上答案都正確答案:C41.下列算法中,不屬于外推法的是()。A、移動平均法B、回歸分析法C、指數(shù)平滑法D、季節(jié)指數(shù)法答案:B42.關(guān)于臟數(shù)據(jù)和亂數(shù)據(jù)的區(qū)分,以下哪種不屬于臟數(shù)據(jù)()。A、含有缺失數(shù)據(jù)B、冗余數(shù)據(jù)C、噪聲數(shù)據(jù)D、不規(guī)則形態(tài)數(shù)據(jù)答案:D43.數(shù)據(jù)集成的基本類型。A、內(nèi)容集成結(jié)構(gòu)集成B、內(nèi)容集成規(guī)約集成C、規(guī)約集成結(jié)構(gòu)集成D、模式集成結(jié)構(gòu)集成參答案:A44.隨機(jī)森林與Bagging中基學(xué)習(xí)器多樣性的區(qū)別是()。A、都來自樣本擾動B、都來自屬性擾動C、來自樣本擾動和自屬性擾動D、多樣本集結(jié)合答案:C45.RDD默認(rèn)的存儲級別是()A、MEMORY_ONLYB、MEMORY_ONLY_SERC、MEMORY_AND,DISKD、MEMORY_AND_DISK_SER答案:A46.下列哪種算法可以用神經(jīng)網(wǎng)絡(luò)構(gòu)建?(__)1.K-NN最近鄰算法2.線性回歸3.邏輯回歸A、1and2B、2and3C、1,2and3D、Noneoftheabove答案:B47.()的主要目標(biāo)是提供可擴(kuò)展的機(jī)器學(xué)習(xí)算法及其實(shí)現(xiàn),旨在幫助開發(fā)人員更加方便快捷地創(chuàng)建智能應(yīng)用程序。A、MahoutB、FlumeC、SqoopD、HBase答案:A48.下列關(guān)于LSTM說法錯(cuò)誤的是(__)。A、LSTM中存在sigmoid函數(shù)B、LSTM中存在tanh函數(shù)C、LSTM又稱長短時(shí)記憶網(wǎng)絡(luò)D、RNN是LSTM的變種答案:D49.在集成學(xué)習(xí)中,對于數(shù)據(jù)型輸出,最常見的結(jié)合策略是()。A、平均法B、投票法C、學(xué)習(xí)法D、以上答案都正確答案:A50.以下關(guān)于Hadoop中MapReduce說法正確的是()。A、可以沒有reduce任務(wù)B、Reducer輸入為隨機(jī)輸入C、shuffle主要實(shí)現(xiàn)數(shù)據(jù)可視化功能D、一個(gè)reducer只能從一個(gè)map復(fù)制所需要的partition答案:A51.對于SVM分類算法,待分樣本集中的大部分樣本不是支持向量,下列說法正確的是()。A、需要將這些樣本全部強(qiáng)制轉(zhuǎn)換為支持向量B、需要將這些樣本中可以轉(zhuǎn)化的樣本轉(zhuǎn)換為支持向量,不能轉(zhuǎn)換的直接刪除C、移去或者減少這些樣本對分類結(jié)果沒有影響D、以上都不對答案:C52.以下哪個(gè)數(shù)據(jù)類型不可以作為索引對數(shù)組進(jìn)行選取()。A、booleanB、tupleC、dictD、int答案:C53.如果我們現(xiàn)有一個(gè)安裝2.6.5版本的hadoop集群,在不修改默認(rèn)配置的情況下存儲200個(gè)每個(gè)200M的文本文件,請問最終會在集群中產(chǎn)生多少個(gè)數(shù)據(jù)塊(包括副本)()A、200B、40000C、400D、1200答案:D54.數(shù)據(jù)科學(xué)家可能會同時(shí)使用多個(gè)算法(模型)進(jìn)行預(yù)測,并且最后把這些算法的結(jié)果集成起來進(jìn)行最后的預(yù)測(集成學(xué)習(xí)),以下對集成學(xué)習(xí)說法正確的是()。A、單個(gè)模型之間具有高相關(guān)性B、單個(gè)模型之間具有低相關(guān)性C、在集成學(xué)習(xí)中使用“平均權(quán)重”而不是“投票”會比較好D、單個(gè)模型都是用的一個(gè)算法答案:B55.(假設(shè)precision=TP/(TP+FP),recall=TP/(TP+FN))在二分類問題中,當(dāng)測試集的正例和負(fù)例數(shù)量不均衡時(shí),以下評價(jià)方案哪個(gè)是相對不合理的()。A、Accuracy:(TP+TN)/allB、F-value:2recallprecision/(recall+precision)C、G-mean:sqrt(precision*recall)D、AUC:曲線下面積答案:A56.以下濾波器對圖像中的椒鹽噪聲濾波效果最好的是()。A、中值濾波B、均值濾波C、最大值濾波D、最小值濾波答案:A57.若建立一個(gè)5000個(gè)特征,100萬數(shù)據(jù)的機(jī)器學(xué)習(xí)模型,則應(yīng)該怎么有效地應(yīng)對這樣的大數(shù)據(jù)訓(xùn)練()。A、隨機(jī)抽取一些樣本,在這些少量樣本之上訓(xùn)練B、可以試用在線機(jī)器學(xué)習(xí)算法C、應(yīng)用PCA算法降維,減少特征數(shù)D、以上答案都正確答案:D58.Python中定義私有屬性的方法是()。A、使用private關(guān)鍵字B、使用public關(guān)鍵字C、使用__XX__定義屬性名D、使用__XX定義屬性名答案:D59.模型構(gòu)建完畢需要對模型進(jìn)行評估量化,需要用到哪個(gè)模塊()。A、utilsB、mixtureC、metricsD、manifold答案:C60.以下哪種方法不屬于特征選擇的標(biāo)準(zhǔn)方法:()。A、嵌入B、過濾C、包裝D、抽樣答案:D61.有關(guān)數(shù)據(jù)倉庫的開發(fā)特點(diǎn),不正確的描述是()。A、數(shù)據(jù)倉庫開發(fā)要從數(shù)據(jù)出發(fā);B、數(shù)據(jù)倉庫使用的需求在開發(fā)出去就要明確;C、數(shù)據(jù)倉庫的開發(fā)是一個(gè)不斷循環(huán)的過程,是啟發(fā)式的開發(fā);D、在數(shù)據(jù)倉庫環(huán)境中,并不存在操作型環(huán)境中所固定的和較確切的處理流,數(shù)據(jù)倉庫中數(shù)據(jù)分析和處理更靈活,且沒有固定的模式答案:A62.以下哪一種分布是二維隨機(jī)變量的分布()。A、正態(tài)分布B、二項(xiàng)分布C、邊緣分布D、指數(shù)分布答案:C63.輸入圖像為32x32,經(jīng)過步長為1,不進(jìn)行padding,卷積核為5x5的卷積層后,得到的特征圖尺寸是多少()A、28x28B、27x27C、29x29D、32x32;答案:A64.讀代碼,請寫出程序正確的答案()。#!/usr/bin/envpython3N=100Sum=0Counter=1Whilecounter<=n:Sum+counterCounter+=1Print("1到%d之和為:%d"%(n,sum))A、結(jié)果:1到100之和為:5000B、結(jié)果:1到100之和為:0C、結(jié)果:1到100之和為:2050D、結(jié)果:1到100之和為:5020答案:B65.大數(shù)據(jù)平臺核心分布式存儲與計(jì)算組件采用Hadoop技術(shù)體系中分布式存儲、分布式計(jì)算框架,及Spark等開源產(chǎn)品和技術(shù),實(shí)現(xiàn)對數(shù)據(jù)的安全控制和管理功能,其中分布式存儲不包括()。A、HDFSB、PostgresqlC、HiveD、HBase答案:B66.scikit-learn中的k-means類,哪個(gè)參數(shù)是用來調(diào)節(jié)k值的()。A、n_clustersB、max_iterC、n_initD、init答案:A67.任一隨機(jī)事件出現(xiàn)的概率為()A、在–1與1之間B、小于0C、不小于1D、在0與1之間答案:D68.對連續(xù)圖像的離散化采樣決定了圖像的()。A、空間分辨率B、時(shí)間分辨率C、地面分辨率D、灰度值答案:A69.Spark的劣勢()A、運(yùn)算速度快B、業(yè)務(wù)實(shí)現(xiàn)需要較少代碼C、提供很多現(xiàn)成函數(shù)D、需要更多機(jī)器內(nèi)存答案:D70.決策樹中的葉結(jié)點(diǎn)對應(yīng)于()。A、屬性B、樣本C、決策結(jié)果D、標(biāo)簽值答案:C71.MapReduce對map()函數(shù)的返回值進(jìn)行處理后再返回給reduce()函數(shù)的目的是()。A、減少map()函數(shù)和reduce()函數(shù)之間的數(shù)據(jù)傳輸B、優(yōu)化map()函數(shù)C、優(yōu)化reduce()函數(shù)D、這一步驟并無必要答案:A72.關(guān)于表述數(shù)據(jù)可視化在數(shù)據(jù)科學(xué)中重要地位說法中,下列不正確的是()。A、視覺是人類獲得信息的最主要途徑B、數(shù)據(jù)可視化處理可以洞察統(tǒng)計(jì)分析無法發(fā)現(xiàn)的結(jié)構(gòu)和細(xì)節(jié)C、數(shù)據(jù)可視化處理結(jié)果的解讀對用戶知識水平的要求較高D、可視化能夠幫助人們提高理解與處理數(shù)據(jù)的效率答案:C73.arr1=np.arange(0,20,1),arr2=arr1.reshape(4,5),arr2【1:3,1】的輸出結(jié)果為()。A、【【6】,【11】】B、【【5】,【10】】C、【6,11】D、【5,10】答案:C74.下列哪項(xiàng)方法不屬于圖像分割方法()。A、邊緣檢測法B、閾值分割法C、區(qū)域分割法D、特征提取法答案:D75.為了允許支持向量機(jī)在一些樣本上出錯(cuò),引入()的概念。A、軟間隔B、硬間隔C、間隔D、誤差答案:A76.以下不是開源工具特點(diǎn)的是()。A、免費(fèi)B、可以直接獲取源代碼C、用戶可以修改源代碼并不加說明用于自己的軟件中D、開源工具一樣具有版權(quán)答案:C77.關(guān)于缺失值填補(bǔ),不正確的說法是()。A、填補(bǔ)數(shù)據(jù)可以用中位數(shù)或者眾數(shù)等B、pandas.dropna可以用來填補(bǔ)缺失值C、用平均值填補(bǔ)會引入相關(guān)性D、啞變量填補(bǔ)是將缺失值當(dāng)做一類新特征處理答案:B78.下列哪個(gè)函數(shù)可以計(jì)算字典元素個(gè)數(shù)()。A、cmpB、lenC、strD、type答案:B79.()是Spark中的抽象數(shù)據(jù)模型。A、RDDB、SchedulerC、StorageD、Shuffle答案:A80.Hadoop生態(tài)系統(tǒng)中,()主要解決的是日志類數(shù)據(jù)的收集和處理問題。A、MahoutB、FlumeC、SqoopD、HBase答案:B81.一般將原始業(yè)務(wù)數(shù)據(jù)分為多個(gè)部分,()用于模型的構(gòu)建。A、訓(xùn)練集B、測試集C、驗(yàn)證集D、全部數(shù)據(jù)答案:A82.以下可以作為文本分類準(zhǔn)則的是()。A、預(yù)測準(zhǔn)確率B、魯棒性C、可擴(kuò)展性D、以上答案都正確答案:D83.“數(shù)據(jù)的故事化描述”是指為了提升數(shù)據(jù)的()和(),將數(shù)據(jù)還原成關(guān)聯(lián)至特定的情景的過程。A、可理解性可記憶性可體驗(yàn)性B、可接受性可記憶性可體驗(yàn)性C、可接受性可記憶性可呈現(xiàn)性D、可理解性可記憶性可呈線性答案:A84.以下代碼的輸出結(jié)果為()。ImportnumpyasnpA=np.arange(12).reshape(3,4)Print(np.delete(a,5))A、【【0123】【4567】【891011】】B、【0123467891011】C、【【023】【467】【81011】】D、【246810】答案:B85.傅里葉變換得到的頻譜中,低頻系數(shù)對應(yīng)于()。A、物體邊緣B、噪聲C、變化平緩部分D、變化劇烈部分答案:C86.下列程序打印結(jié)果為()。ImportreStr1="Python'sfeatures"Str2=re.match(r'(.*)on(.*?).*',str1,re.M|re.I)Print(str2.group(1))A、PythonB、PythC、thon’sD、Python‘sfeatures答案:B87.scipy.stats.isf函數(shù)的作用是()。A、隨機(jī)變量的生存函數(shù)B、scipy.stats.sf的逆C、計(jì)算隨機(jī)變量的期望和方差D、隨機(jī)變量的累積分布函數(shù)答案:B88.ApacheSqoop主要設(shè)計(jì)目的是()。A、數(shù)據(jù)清洗B、數(shù)據(jù)轉(zhuǎn)化C、數(shù)據(jù)ETLD、數(shù)據(jù)可視化答案:C89.如果需要訓(xùn)練的特征維度成千上萬,在高維情形下出現(xiàn)的數(shù)據(jù)樣本稀疏、距離計(jì)算困難。我們通過什么方法可以緩解這個(gè)問題()。A、K均值算法B、支持向量機(jī)C、降維D、以上答案都不正確答案:C90.關(guān)于SOM神經(jīng)網(wǎng)絡(luò)描述錯(cuò)誤的是:(__)。A、一種競爭學(xué)習(xí)型的無監(jiān)督神經(jīng)網(wǎng)絡(luò)B、將高維輸入數(shù)據(jù)映射到低維空間,保持輸入數(shù)據(jù)在高維空間的拓?fù)浣Y(jié)構(gòu)C、SOM尋優(yōu)目標(biāo)為每個(gè)輸出神經(jīng)元找到合適的權(quán)重D、輸出層神經(jīng)元以矩陣方式排列在二維空間答案:C91.下列哪個(gè)不是專門用于可視化時(shí)間空間數(shù)據(jù)的技術(shù)(__)。A、等高線圖B、餅圖C、曲面圖D、矢量場圖答案:B92.在TF-IDF算法中,在計(jì)算完詞頻與逆文檔頻率后,將二者()后得到最終的結(jié)果。A、相加B、相減C、相乘D、相除答案:C93.jieba的哪一種模式會把文本精確切分,不存在冗余單詞()。A、匹配模式B、全模式C、精準(zhǔn)模式D、搜索引擎模式答案:C94.關(guān)于Spark的說法中,()是錯(cuò)誤的。A、采用內(nèi)存計(jì)算模式B、可利用多種語言編程C、主要用于批處理D、可進(jìn)行map()操作答案:C95.()對應(yīng)于決策樹結(jié)果,其他節(jié)點(diǎn)對應(yīng)于()。A、葉節(jié)點(diǎn),屬性測試B、根結(jié)點(diǎn),學(xué)習(xí)測試C、內(nèi)部節(jié)點(diǎn),學(xué)習(xí)測試D、葉節(jié)點(diǎn),分類測試答案:A96.對于分類類型的變量,()是個(gè)非常好的展示工具。A、柱狀圖B、折線圖C、餅狀圖D、直方圖答案:D97.線性判別分析(LDA)從貝葉斯決策理論闡釋,當(dāng)兩類數(shù)據(jù)同先驗(yàn)且滿足()時(shí),LDA達(dá)到最優(yōu)分類。A、滿足高斯分布B、協(xié)方差相等C、滿足高斯分布且協(xié)方差相等D、協(xié)方差不等答案:C98.以下哪個(gè)模塊不是Scipy庫中的()。A、clusterB、randomC、signalD、misc答案:B99.對于數(shù)據(jù)3,3,2,3,6,3,10,3,6,3,2.①這組數(shù)據(jù)的眾數(shù)是3;②這組數(shù)據(jù)的眾數(shù)與中位數(shù)的數(shù)值不相等;③這組數(shù)據(jù)的中位數(shù)與平均數(shù)的數(shù)值不相等;④這組數(shù)據(jù)的平均數(shù)與眾數(shù)的數(shù)值相等.其中正確結(jié)論的個(gè)數(shù)為()。A、1B、2C、3D、4答案:B100.給定一個(gè)長度為n的不完整單詞序列,我們希望預(yù)測下一個(gè)字母是什么。比如輸入是predictio(9個(gè)字母組成),希望預(yù)測第十個(gè)字母是什么。下面哪種神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)適用于解決這個(gè)工作()A、循環(huán)神經(jīng)網(wǎng)絡(luò)B、全連接神經(jīng)網(wǎng)絡(luò)C、受限波爾茲曼機(jī)D、卷積神經(jīng)網(wǎng)絡(luò)答案:A101.假設(shè)你在卷積神經(jīng)網(wǎng)絡(luò)的第一層中有5個(gè)卷積核,每個(gè)卷積核尺寸為7×7,具有零填充且步幅為1。該層的輸入圖片的維度是224×224×3。那么該層輸出的維度是多少()A、217x217x3B、217x217x8C、218x218x5D、220x220x7答案:C102.以下使用其本身可以達(dá)成數(shù)據(jù)透視功能的函數(shù)是()。A、groupbyB、transformC、crosstabD、pivot_table答案:D103.在python3中以下安裝第三方模塊命令正確的是()。A、pip-installsklearnB、pipinstallsklearnC、pip–upgragesklearnD、pip-isklearn答案:B104.下列關(guān)于線性回歸分析中的殘差說法正確的是()。A、殘差均值總是為零B、殘差均值總是約等于零C、殘差均值總是大于零D、以上答案都不正確答案:A105.stats.describe()函數(shù)的作用是()。A、計(jì)算變異系數(shù)B、計(jì)算數(shù)據(jù)集的樣本偏度C、計(jì)算所傳遞數(shù)組的幾個(gè)描述性統(tǒng)計(jì)信息D、計(jì)算關(guān)于樣本平均值的第n個(gè)矩答案:C106.()是人們從(多條)信息中發(fā)現(xiàn)的共性規(guī)律、模式、模型、理論和方法等。A、信息B、知識C、理解D、智慧答案:B107.數(shù)據(jù)銷毀環(huán)節(jié)的安全技術(shù)措施有通過軟件或物理方式保障磁盤中存儲數(shù)據(jù)的()、不可恢復(fù),如數(shù)據(jù)銷毀軟件、硬盤消磁機(jī)、硬盤粉碎機(jī)等。A、暫時(shí)隔離B、暫時(shí)刪除C、永久刪除D、不作處理答案:C108.在Hadoop生態(tài)系統(tǒng)中,()可以將結(jié)構(gòu)化的數(shù)據(jù)文件映射成一張數(shù)據(jù)庫表,并提供簡單的查詢語言。A、PigB、HbaseC、HiveD、MapReduce答案:C109.Python語句print(0xA+0xB)的輸出結(jié)果是()。。A、0xA+0xBB、A+BC、0xA0xBD、21答案:D110.有數(shù)組arr=Numpy.array(【1,2,3,4】),執(zhí)行arr.dtype后輸出結(jié)果為()。A、int32B、int64C、float32D、float64答案:A111.以下選項(xiàng)中哪個(gè)不屬于數(shù)據(jù)預(yù)處理的方法()。A、數(shù)據(jù)清洗B、數(shù)據(jù)集成C、數(shù)據(jù)變換D、數(shù)據(jù)統(tǒng)計(jì)答案:D112.CNN神經(jīng)網(wǎng)絡(luò)對圖像特征提取帶來了變革性的變化,使之前的人工特征提取升級到數(shù)據(jù)驅(qū)動的自動特征提取,在CNN中,起到特征提取作用的網(wǎng)絡(luò)層是:(__)。A、convolution層B、fullconnect層C、maxpooling層D、norm層答案:A113.下列關(guān)于文本分類的說法不正確的是()。A、文本分類是指按照預(yù)先定義的主題類別,由計(jì)算機(jī)自動地為文檔集合中的每個(gè)文檔確定一個(gè)類別B、文本分類大致可分為基于知識工程的分類系統(tǒng)和基于機(jī)器學(xué)習(xí)的分類系統(tǒng)C、文本的向量形式一般基于詞袋模型構(gòu)建,該模型考慮了文本詞語的行文順序D、構(gòu)建文本的向量形式可以歸結(jié)為文本的特征選擇與特征權(quán)重計(jì)算兩個(gè)步驟答案:C114.聚類算法的性能度量可稱為()。A、密度估計(jì)B、異常檢測C、有效性指標(biāo)D、分布結(jié)構(gòu)答案:C115.數(shù)據(jù)整合和分組的說法,不正確的是()。A、數(shù)據(jù)連接可以用concat或merge函數(shù)B、axis=1表示軸向連接C、數(shù)據(jù)分組可以使用mean函數(shù)D、使用agg可以自定義多個(gè)聚合函數(shù)答案:C116.評估完模型之后,發(fā)現(xiàn)模型存在高偏差(highbias),應(yīng)該如何解決()。A、減少模型的特征數(shù)量B、增加模型的特征數(shù)量C、增加樣本數(shù)量D、以上答案都正確答案:B117.Matplotlib的核心是面向()。A、過程B、對象C、結(jié)果D、服務(wù)答案:B118.scipy.stats模塊中隨機(jī)變量的殘存函數(shù)是()。A、cdfB、rvsC、pdfD、sf答案:D119.以下內(nèi)容符合物體識別任務(wù)的是()。A、不能對圖像進(jìn)行壓縮或剪裁B、遵守誤差最小準(zhǔn)則和最佳近似準(zhǔn)則C、可以不指定分類的類別數(shù)量D、事先給定樣本的分布特征答案:B120.以下關(guān)于圖像平滑的敘述中錯(cuò)誤的是()。A、可以減少噪聲B、可以使圖像變得均勻C、圖像的細(xì)節(jié)部分可以不保持原有特征D、可以采用基于卷積的濾波方法答案:C121.K-means++算法選擇初始seeds的基本思想就是:初始的聚類中心之間的相互距離要盡可能的遠(yuǎn)。那么算法流程為()。1.從輸入的數(shù)據(jù)點(diǎn)集合中隨機(jī)選擇一個(gè)點(diǎn)作為第一個(gè)聚類中心2.對于數(shù)據(jù)集中的每一個(gè)點(diǎn)x,計(jì)算它與最近聚類中心(指已選擇的聚類中心)的距離D(x)3.選擇一個(gè)新的數(shù)據(jù)點(diǎn)作為新的聚類中心,選擇的原則是:D(x)較大的點(diǎn),被選取作為聚類中心的概率較大4.重復(fù)2和3直到k個(gè)聚類中心被選出來5.利用這k個(gè)初始的聚類中心來運(yùn)行標(biāo)準(zhǔn)的k-means算法A、.1B、.3C、.5D、.5答案:C122.留出法直接將數(shù)據(jù)集劃分為()個(gè)互斥的集合。A、一B、二C、三D、四答案:B123.a=1,b=2,c=3,以下表達(dá)式值為True的是()。A、a>=bor(c+5)%3==1B、not(a==1andb!=c)C、notaandb==cD、aanda+b>=c答案:D124.機(jī)器學(xué)習(xí)算法在學(xué)習(xí)過程中對某種類型假設(shè)的偏好,稱為()。A、訓(xùn)練偏好B、歸納偏好C、分析偏好D、假設(shè)偏好答案:B125.下列關(guān)于L1正則化與L2正則化描述錯(cuò)誤的是()。A、L1范數(shù)正則化有助于降低過擬合風(fēng)險(xiǎn)B、L2范數(shù)正則化有助于降低過擬合風(fēng)險(xiǎn)C、L1范數(shù)正則化比L2范數(shù)正則化更有易于獲得稀疏解D、L2范數(shù)正則化比L1范數(shù)正則化更有易于獲得稀疏解答案:C126.Scikit-Learn中()可以實(shí)現(xiàn)計(jì)算模型準(zhǔn)確率。A、accuracy_scoreB、accuracyC、f1_scoreD、f2_score答案:A127.下面哪個(gè)操作是窄依賴()A、joinB、filterC、groupD、sort答案:B128.當(dāng)相關(guān)系數(shù)r=0時(shí),說明()。A、現(xiàn)象之間相關(guān)程度較小B、現(xiàn)象之間完全相關(guān)C、現(xiàn)象之間無直線相關(guān)D、現(xiàn)象之間完全無關(guān)答案:C129.不屬于Mayer-Sch?nbergerV和CukierK.在其著名論著《Bigdata:Arevolutionthatwilltransformhowwelive,work,andthink》中提出了大數(shù)據(jù)時(shí)代統(tǒng)計(jì)的思維變革的是()。A、不是隨機(jī)樣本,而是全體數(shù)據(jù)B、不是精確性,而是混雜性C、不是描述性分析,而是預(yù)測性分析D、不是因果關(guān)系,而是相關(guān)關(guān)系答案:C130.通過KMeans算法進(jìn)行聚類分析后得出的聚類結(jié)果的特征是()。A、同一聚類中的對象間相似度高,不同聚類中的對象間相似度高B、同一聚類中的對象間相似度高,不同聚類中的對象間相似度低C、同一聚類中的對象間相似度低,不同聚類中的對象間相似度低D、同一聚類中的對象間相似度低,不同聚類中的對象間相似度高答案:B131.支持向量回歸與傳統(tǒng)回歸模型的差別()。A、模型輸出與真實(shí)值相同B、模型輸出與真實(shí)值存在ε偏差C、模型輸出大于真實(shí)值D、模型輸出小于真實(shí)值答案:B132.下列有關(guān)HDFS的容錯(cuò)機(jī)制描述錯(cuò)誤的是()。A、HDFS可以使用機(jī)架位感知的方法實(shí)現(xiàn)容錯(cuò)機(jī)制;B、HDFS可以使用基于erasurecode的方法實(shí)現(xiàn)容錯(cuò)機(jī)制;C、HDFS使用機(jī)架位感知的方法先把一份拷貝放入同機(jī)架上的機(jī)器,然后再拷貝一份到其他服務(wù)器;D、HDFS使用機(jī)架位感知的方法先把一份拷貝放入同機(jī)架上的機(jī)器,然后再拷貝一份到同機(jī)架機(jī)器的不同位置上;答案:D133.a=np.arange(10),a【2:4】截取到的數(shù)組為()。A、【1,2,3】B、【2,3,4】C、【2,3】D、【1,2】答案:C134.下列關(guān)于分詞的說法正確的是()A、中文句子字之間沒有空格,無法分詞B、一個(gè)句子的分詞結(jié)果是唯一的C、中文分詞是將一系列無空格間隔字符串分割成一系列單詞的過程D、分詞沒有實(shí)際應(yīng)用價(jià)值答案:C135.()是交叉驗(yàn)證法的一種特例。A、自助法B、留一法C、交叉驗(yàn)證法D、錯(cuò)誤率分析答案:B136.假設(shè)已從標(biāo)準(zhǔn)庫functools導(dǎo)入reduce()函數(shù),那么表達(dá)式reduce(lambdax,y:x+y,【1,2,3】)的值為()。A、NoneB、6C、3D、9答案:B137.如何交換二維Numpy數(shù)組中的兩列()。在數(shù)組arr中交換列1和2。arr=np.arange(9).reshape(3,3)A、arr【:,【1,0,2】】B、arr【:,【1,0,3】】C、arr【:,【1,0,1】】D、arr【:,【1,0】】答案:A138.Python語句list(range(1,10,3))執(zhí)行結(jié)果為()。A、【1,10,30】B、【1,3,6,9】C、【1,4,7】D、【2,5,8】答案:C139.假設(shè)有列表a=【'name','age','sex'】和b=【'Dong',38,'Male'】,請使用一個(gè)語句將這兩個(gè)列表的內(nèi)容轉(zhuǎn)換為字典,并且以列表a中的元素為“鍵”,以列表b中的元素為“值”,這個(gè)語句可以寫為()。A、c=dict(cross(a,b))B、c=dict(zip(a,b))C、c=map(zip(a,b))D、c=b答案:B140.如何從一個(gè)數(shù)組中移除那些存在于另一個(gè)數(shù)組中的項(xiàng)()。A=np.array(【1,2,3,4,5】)B=np.array(【5,6,7,8,9】)期望輸出:array(【1,2,3,4】)A、np.setdiff1d(a,b)B、setdiff1d(a)C、setdiff1d(b)D、以上答案都不正確答案:A141.在邏輯回歸輸出與目標(biāo)對比的情況下,以下評估指標(biāo)中哪一項(xiàng)不適用()。A、AUC-ROCB、準(zhǔn)確度C、LoglossD、均方誤差答案:D142.Numpy中對數(shù)組進(jìn)行轉(zhuǎn)置的函數(shù)是哪個(gè)()。A、transpose()B、rollaxis()C、swapaxes()D、tan()答案:A143.Seaborn要求原始數(shù)據(jù)的輸入類型不能是()A、DataframeB、SeriesC、Numpy答案:B144.數(shù)據(jù)可視化的本質(zhì)是()。A、將數(shù)據(jù)轉(zhuǎn)換為知識B、將知識轉(zhuǎn)換為數(shù)據(jù)C、將數(shù)據(jù)轉(zhuǎn)換為信息D、將信息轉(zhuǎn)換為智慧答案:A145.大數(shù)據(jù)平臺技術(shù)架構(gòu)不包含的是()A、數(shù)據(jù)整合B、數(shù)據(jù)存儲C、數(shù)據(jù)計(jì)算D、數(shù)據(jù)溯源答案:D146.機(jī)器學(xué)習(xí)中L1正則化和L2正則化的區(qū)別是()。A、使用L1可以得到稀疏的權(quán)值,使用L2可以得到平滑的權(quán)值B、使用L1可以得到平滑的權(quán)值,使用L2可以得到平滑的權(quán)值C、使用L1可以得到平滑的權(quán)值,使用L2可以得到稀疏的權(quán)值D、使用L1可以得到稀疏的權(quán)值,使用L2可以得到稀疏的權(quán)值答案:A147.下列關(guān)于關(guān)鍵詞提取的說法錯(cuò)誤的是()A、關(guān)鍵詞提取是指借用自然語言處理方法提取文章關(guān)鍵詞B、TF-IDF模型是關(guān)鍵詞提取的經(jīng)典方法C、文本中出現(xiàn)次數(shù)最多的詞最能代表文本的主題D、這個(gè)問題設(shè)計(jì)數(shù)據(jù)挖掘,文本處理,信息檢索等領(lǐng)域;答案:C148.考慮值集{12243324556826},其四分位數(shù)極差是:()A、21B、24C、55D、3答案:A149.在Hadoop中,下面哪個(gè)是默認(rèn)的InputFormat類型,它將每行內(nèi)容作為新值,而將字節(jié)偏移量作為key()。A、FileInputFormatB、TextInputFormatC、KeyValueTextInputFormatD、bineTextInputFormat答案:B150.pynlpir是一種常用的自然語言理解工具包,其中進(jìn)行分詞處理的函數(shù)是()。A、open()B、segment()C、AddUserWord()D、generate()答案:B151.一元線性回歸方程y=0.7+0.82x,判定系數(shù)等于0.64,則x與y的相關(guān)系數(shù)為()。A、0.82B、0.64C、0.8D、0.7答案:C152.關(guān)于Python文件處理,以下選項(xiàng)中描述錯(cuò)誤的是()。A、Python能處理JPG圖像文件B、Python不可以處理PDF文件CPython能處理C、SV文件D、Python能處理Excel文件答案:B153.劃分聚類算法是一種簡單的較為基本的重要聚類方法。它的主要思想是通過將數(shù)據(jù)點(diǎn)集分為()個(gè)劃分,并使用重復(fù)的控制策略使某個(gè)準(zhǔn)則最優(yōu)化,以達(dá)到最終的結(jié)果A、DB、KC、ED、F答案:B154.關(guān)于Python語言的特點(diǎn),以下選項(xiàng)中描述錯(cuò)誤的是()。A、Python語言是非開源語言B、Python語言是跨平臺語言C、Python語言是多模型語言D、Python語言是腳本語言答案:A155.不屬于判別式模型的是()。A、決策樹B、BP神經(jīng)網(wǎng)絡(luò)C、支持向量機(jī)D、貝葉斯答案:D156.聚類是一種典型的無監(jiān)督學(xué)習(xí)任務(wù),然而在現(xiàn)實(shí)聚類任務(wù)中我們往往能獲得一些額外的監(jiān)督信息,于是可通過()來利用監(jiān)督信息以獲得更好的聚類效果。A、監(jiān)督聚類B、半監(jiān)督聚類C、聚類D、直推聚類答案:B157.如果在大型數(shù)據(jù)集上訓(xùn)練決策樹。為了花費(fèi)更少的時(shí)間來訓(xùn)練這個(gè)模型,下列哪種做法是正確的()A、增加樹的深度B、增加學(xué)習(xí)率C、減小樹的深度D、減少樹的數(shù)量答案:C158.Python中的os模塊常見方法描述錯(cuò)誤的是()。A、os.remove()刪除文件B、os.rename()重命名文件C、os.walk()讀取所有的目錄名D、os.chdir()改變目錄答案:C159.多分類圖像識別任務(wù)常采用()作為輸出的編碼方式。A、二進(jìn)制編碼B、one-hot編碼C、霍夫曼編碼D、曼切斯特編碼答案:B160.表達(dá)式int('101',2)的值為()。A、5B、6C、10D、3答案:A161.以下關(guān)于模塊說法錯(cuò)誤的是()。A、一個(gè)xx.py就是一個(gè)模塊;B、任何一個(gè)普通的xx.py文件可以作為模塊導(dǎo)入;C、模塊文件的擴(kuò)展名不一定是.py;D、運(yùn)行時(shí)會從制定的目錄搜索導(dǎo)入的模塊,如果沒有,會報(bào)錯(cuò)異常答案:C162.當(dāng)try子句中沒有任何錯(cuò)誤時(shí),一定不會執(zhí)行()語句。A、tryB、slseC、exceptD、finally答案:C163.假設(shè)你需要調(diào)整參數(shù)來最小化代價(jià)函數(shù)(costfunction),會使用()技術(shù)。A、窮舉搜索B、隨機(jī)搜索C、Bayesian優(yōu)化D、以上全是答案:D164.下面哪項(xiàng)不屬于循環(huán)神經(jīng)網(wǎng)絡(luò)的輸出模式。(__)A、單輸出B、多輸出C、同步多輸出D、異步多輸出答案:C165.np.sort()函數(shù)返回的是()。A、已排序的原數(shù)組B、排好序的數(shù)組拷貝C、原數(shù)組D、原數(shù)組的拷貝答案:B166.在Apriori算法中,候選項(xiàng)集劃分為不同的桶,存放在()中。A、字典B、集合C、Hash樹D、列表答案:C167.大數(shù)據(jù)參考架構(gòu)的水平軸和垂直軸分別為()。A、信息(活動)價(jià)值鏈和信息技術(shù)價(jià)值鏈B、信息技術(shù)價(jià)值鏈和信息(活動)價(jià)值鏈C、信息交互價(jià)值鏈和信息技術(shù)價(jià)值鏈D、信息(活動)價(jià)值鏈和信息交互價(jià)值鏈答案:A168.情感信息歸納常見的存在形式是()。A、語料庫B、情感文摘C、情感評論D、情感傾向答案:B169.以下關(guān)于副本和視圖描述錯(cuò)誤的是()。A、Numpy的切片操作返回原數(shù)據(jù)的視圖B、調(diào)用Ndarray的view()函數(shù)產(chǎn)生一個(gè)視圖C、Python序列的切片操作,調(diào)用deepCopy()函數(shù)D、調(diào)用Ndarray的copy()函數(shù)產(chǎn)生一個(gè)視圖答案:D170.屬于卷積神經(jīng)網(wǎng)絡(luò)應(yīng)用方向的是(__)。A、圖像分類B、目標(biāo)檢測C、圖像語義分割D、以上答案都正確答案:D171.下列不屬于數(shù)據(jù)科學(xué)跨平臺基礎(chǔ)設(shè)施和分析工具的是()。A、微軟AzureB、Google云平臺C、阿里云D、Adobephotoshop答案:D172.scipy庫中用于物理和數(shù)學(xué)常量計(jì)算的模塊是()。A、scipy.clusterB、scipy.ioC、scipy.constantsD、scipy.linalg答案:C173.執(zhí)行如下代碼:ImporttimePrint(time.time())以下選項(xiàng)中描述錯(cuò)誤的是()。A、time庫是Python的標(biāo)準(zhǔn)庫;B、可使用time.ctime(),顯示為更可讀的形式;C、time.sleep(5)推遲調(diào)用線程的運(yùn)行,單位為毫秒;D、輸出自1970年1月1日00:00:00AM以來的秒數(shù);答案:C174.Python語句:f=open(),以下選項(xiàng)中對f的描述錯(cuò)誤的是()。A、*f是文件句柄,用來在程序中表達(dá)文件B、表達(dá)式print(f)執(zhí)行將報(bào)錯(cuò)C、*f是一個(gè)Python內(nèi)部變量類型D、將f當(dāng)作文件對象,fread()可以讀入文件全部信息答案:B175.常用的圖像去噪方法有()。A、高斯濾波B、中值濾波C、P-M方程去噪D、以上答案都正確答案:D176.運(yùn)行下面的代碼后,變量n的類型是()。N={}A、setB、listC、未知類型D、dict答案:D177.有N個(gè)樣本,一般用于訓(xùn)練,一般用于測試。若增大N值,則訓(xùn)練誤差和測試誤差之間的差距會如何變化()。A、增大B、減小C、無法確定D、無明顯變化答案:B178.任何一個(gè)核函數(shù)都隱式地定義了一個(gè)()空間。A、希爾伯特空間B、再生希爾伯特空間C、再生核希爾伯特空間D、歐式空間答案:C179.選擇哪一個(gè)解作為輸出,將由學(xué)習(xí)算法的歸納偏好決定,常見的做法是引入()。A、線性回歸B、線性判別分析C、正則化項(xiàng)D、偏置項(xiàng)答案:C180.Numpy庫的主要功能是()。A、科學(xué)計(jì)算B、繪圖C、爬取網(wǎng)站數(shù)據(jù)、提取結(jié)構(gòu)性數(shù)據(jù)D、機(jī)器學(xué)習(xí)庫答案:A181.下列關(guān)于可視化方法體系說法不正確的是()。A、通常采用視覺圖形元素和視覺通道兩個(gè)維度進(jìn)行視覺編碼B、常用的共性方法有統(tǒng)計(jì)圖表、圖論方法、視覺隱喻和圖形符號學(xué)等C、領(lǐng)域方法在所屬領(lǐng)域內(nèi)其可視化的信度和效果往往低于基礎(chǔ)方法的直接應(yīng)用D、視覺編碼為其他數(shù)據(jù)可視化方法提供了方法學(xué)基礎(chǔ)答案:C182.設(shè)計(jì)為8層的卷積神經(jīng)網(wǎng)絡(luò)AlexNet網(wǎng)絡(luò)成功使用(__)函數(shù),其效果遠(yuǎn)遠(yuǎn)地超過了Sigmoid函數(shù)。A、ReLU函數(shù)B、sigmoid函數(shù)C、tanh函數(shù)D、sin函數(shù)答案:A183.線性模型中的權(quán)重w值可以看做各個(gè)屬性x的()。A、正則化系數(shù)B、對最終決策結(jié)果的貢獻(xiàn)度C、高維映射D、取值答案:B184.最早被提出的循環(huán)神經(jīng)網(wǎng)絡(luò)門控算法是什么()A、長短期記憶網(wǎng)絡(luò)B、門控循環(huán)單元網(wǎng)絡(luò)C、堆疊循環(huán)神經(jīng)網(wǎng)絡(luò)D、雙向循環(huán)神經(jīng)網(wǎng)絡(luò)答案:A185.如果只寫open(filename),那就是用()模式打開。A、rB、wC、aD、b答案:A186.依托(),結(jié)合應(yīng)用推進(jìn)數(shù)據(jù)歸集,形成統(tǒng)一的數(shù)據(jù)資源中心。A、全業(yè)務(wù)數(shù)據(jù)中心和數(shù)據(jù)中臺B、營銷基礎(chǔ)數(shù)據(jù)平臺和大數(shù)據(jù)平臺C、全業(yè)務(wù)中心和營銷基礎(chǔ)數(shù)據(jù)平臺D、全業(yè)務(wù)數(shù)據(jù)中心和大數(shù)據(jù)平臺答案:A187.MapReduce編程模型中以下組件哪個(gè)是最后執(zhí)行的()A、MapperB、PartitionerC、ReducerD、RecordReader答案:C188.假如我們使用Lasso回歸來擬合數(shù)據(jù)集,該數(shù)據(jù)集輸入特征有100個(gè)(X1,X2,...,X100)?,F(xiàn)在,我們把其中一個(gè)特征值擴(kuò)大10倍(例如是特征X1),然后用相同的正則化參數(shù)對Lasso回歸進(jìn)行修正。那么,下列說法正確的是()A、特征X1很可能被排除在模型之外B、特征X1很可能還包含在模型之中C、無法確定特征X1是否被舍D、以上答案都不正確答案:B189.data=Numpy.array(【【【1,2,3】,【4,5,6】】,【【7,8,9】,【10,11,12】】】),data的形狀(shape)為()。A、(2,2,3)B、(2,3,2)C、(3,2,3)D、(3,2,2)答案:A190.下列哪個(gè)不是專門用于可視化時(shí)間空間數(shù)據(jù)的技術(shù)()。A、等高線圖B、餅圖C、曲面圖D、矢量場圖答案:B191.一個(gè)MapReduce程序中的MapTask的個(gè)數(shù)由什么決定()A、輸入的總文件數(shù)B、客戶端程序設(shè)置的mapTask的個(gè)數(shù)C、FileInputFormat.getSplits(JobContextjob)計(jì)算出的邏輯切片的數(shù)量D、輸入的總文件大小/數(shù)據(jù)塊大小答案:C192.數(shù)據(jù)可視化的方法論基礎(chǔ)是()。A、統(tǒng)計(jì)圖表B、視覺編碼理論C、圖論D、圖形符號學(xué)答案:B193.當(dāng)特征值大致相等時(shí)會發(fā)生什么()A、PCA將表現(xiàn)出色B、PCA將表現(xiàn)不佳C、不知道D、以上都沒有答案:B194.訓(xùn)練完SVM模型后,不是支持向量的那些樣本我們可以丟掉,也可以繼續(xù)分類:()。A、正確B、錯(cuò)誤答案:A195.可分解為偏差、方差與噪聲之和的是()。A、訓(xùn)練誤差(trainingerror)B、經(jīng)驗(yàn)誤差(empiricalerror)C、均方誤差(meansquarederror)D、泛化誤差(generalizationerror)答案:D196.以下()是對DMM(數(shù)據(jù)管理成熟度模型)中“已管理級”基本特點(diǎn)的正確表述。A、組織機(jī)構(gòu)的數(shù)據(jù)管理關(guān)鍵活動能夠根據(jù)結(jié)構(gòu)自身的反饋以及外部環(huán)境的變革進(jìn)行不斷優(yōu)化。B、組織機(jī)構(gòu)已用定量化的方式管理其關(guān)鍵過程的執(zhí)行過程。C、組織機(jī)構(gòu)只有在項(xiàng)目管理過程中執(zhí)行了D.M給出的關(guān)鍵過程,而缺乏機(jī)構(gòu)層次的統(tǒng)籌與管理D、組織機(jī)構(gòu)的數(shù)據(jù)管理工作超出了項(xiàng)目管理的范疇,由組織機(jī)構(gòu)統(tǒng)一管理了其數(shù)據(jù)管理關(guān)鍵過程答案:D197.以下屬于圖像處理的常用方法有()。A、圖像變換B、圖像編碼壓縮C、圖像增強(qiáng)和復(fù)原D、以上答案都正確答案:D198.以下屬于深度學(xué)習(xí)框架的是(__)。A、TensorflowB、CaffeC、PyTorchD、以上答案都正確答案:D199.下列關(guān)于支持向量的說法正確的是()。A、到分類超平面的距離最近的且滿足一定條件的幾個(gè)訓(xùn)練樣本點(diǎn)是支持向量B、訓(xùn)練集中的所有樣本點(diǎn)都是支持向量C、每一類樣本集中都分別只有一個(gè)支持向量D、支持向量的個(gè)數(shù)越多越好答案:A200.變量的不確定性越大,相對應(yīng)信息熵有什么變化()。A、熵變小B、熵變大C、不變D、以上答案都不正確答案:B201.LSTM中,(__)的作用是確定哪些新的信息留在細(xì)胞狀態(tài)中,并更新細(xì)胞狀態(tài)。A、輸入門B、遺忘門C、輸出門D、更新門答案:A202.數(shù)據(jù)管理成熟度模型中成熟度等級最高是哪一級()。A、已優(yōu)化級B、已測量級C、已定義級D、已管理級答案:A203.下列不屬于聚類性能度量外部指標(biāo)的是()。A、Jaccard系數(shù)B、FM系數(shù)C、Rand指數(shù)D、DB指數(shù);答案:D204.執(zhí)行以下代碼段Print(bool('False'))Print(bool())時(shí),輸出為()。A、TrueTrueB、TrueFalseC、FalseTrueD、FalseFalse答案:B205.數(shù)據(jù)科學(xué)是一門以()為主要研究任務(wù)的獨(dú)立學(xué)科。A、“數(shù)據(jù)驅(qū)動”“數(shù)據(jù)業(yè)務(wù)化”“數(shù)據(jù)洞見”“數(shù)據(jù)產(chǎn)品研發(fā)”和(或)“數(shù)據(jù)生態(tài)系統(tǒng)的建設(shè)”B、數(shù)據(jù)研發(fā)C、數(shù)據(jù)處理D、數(shù)據(jù)洞見答案:A206.Hadoop中,Reducer的三個(gè)階段是__。A、Shuffle-Sort-ReduceB、Shuffle-Reduce-SortC、Reduce-Shuffle-SortD、Sort-Shuffle-Reduce答案:A207.下列場景中最有可能應(yīng)用人工智能的是()。A、刷臉辦電B、輿情分析C、信通巡檢機(jī)器人D、以上答案都正確答案:D208.當(dāng)使用不同類型的數(shù)組進(jìn)行操作時(shí),結(jié)果數(shù)組的類型會進(jìn)行()。A、向下轉(zhuǎn)換B、向上轉(zhuǎn)換C、不進(jìn)行轉(zhuǎn)換D、無法計(jì)算答案:B209.傳統(tǒng)目標(biāo)檢測流程包括()。A、區(qū)域選擇B、特征提取C、分類器分類D、以上答案都正確答案:D210.關(guān)于文件的打開方式,以下選項(xiàng)中描述正確的是()。A、文件只能選擇二進(jìn)制或文本方式打開B、文本文件只能以文本方式打開C、所有文件都可能以文本方式打開D、所有文件都可能以二進(jìn)制方式打開答案:D211.以下選項(xiàng)中,輸出結(jié)果是False的是()。A、>>>5isnot4B、>>>5!=4C、>>>False!=0D、>>>5is5答案:C212.以下說法正確的是()。A、關(guān)聯(lián)規(guī)則挖掘過程是發(fā)現(xiàn)滿足最小支持度的所有項(xiàng)集代表的規(guī)則。B、尋找模式和規(guī)則主要是對數(shù)據(jù)進(jìn)行干擾,使其符合某種規(guī)則以及模式C、數(shù)據(jù)挖掘的主要任務(wù)是從數(shù)據(jù)中發(fā)現(xiàn)潛在的規(guī)律,從而能更好的完成描述數(shù)據(jù)、預(yù)測數(shù)據(jù)等任務(wù)。D、在聚類分析當(dāng)中,簇內(nèi)的相似性越大,簇間的差別越大,聚類的效果就越差。答案:C213.在IBMPASS中,聚類算法分為分層聚類、Kohonennetwork、K平均值聚類和()四種。A、系統(tǒng)聚類B、兩步聚類C、模型聚類D、其它聚類答案:B214.下面哪行代碼最適合接受系統(tǒng)輸入的一個(gè)整數(shù)()。A、num=input()B、num=input(“6”)C、num=int(input())D、num=float(input())答案:C215.如何在pyplot中設(shè)置x軸、y軸的刻度位置()。A、xlabel()、ylabel()B、xlim()、ylim()C、xscale()、yscale()D、xticks()、yticks()答案:D216.導(dǎo)入模塊的方式錯(cuò)誤的是()。A、importmoB、frommoimport*;C、importmoasmD、importmfrommo答案:D217.特征工程的目的是()。A、找到最合適的算法B、得到最好的輸入數(shù)據(jù)C、減低模型復(fù)雜度D、加快計(jì)算速度答案:B218.關(guān)于bagging下列說法錯(cuò)誤的是:()。A、各基分類器之間有較強(qiáng)依賴,不可以進(jìn)行并行訓(xùn)練B、最著名的算法之一是基于決策樹基分類器的隨機(jī)森林C、當(dāng)訓(xùn)練樣本數(shù)量較少時(shí),子集之間可能有重疊D、為了讓基分類器之間互相獨(dú)立,需要將訓(xùn)練集分為若干子集答案:A219.對于數(shù)據(jù)3,3,2,3,6,3,10,3,6,3,2.①這組數(shù)據(jù)的眾數(shù)是3;②這組數(shù)據(jù)的眾數(shù)與中位數(shù)的數(shù)值不相等;③這組數(shù)據(jù)的中位數(shù)與平均數(shù)的數(shù)值不相等;④這組數(shù)據(jù)的平均數(shù)與眾數(shù)的數(shù)值相等.其中正確結(jié)論的個(gè)數(shù)為()。A、1B、2C、3D、4答案:B220.卷積神經(jīng)網(wǎng)絡(luò)中每層卷積層(Convolutionallayer)由若干卷積單元組成,每個(gè)卷積單元的參數(shù)都是通過反向傳播算法最佳化得到,其作用是(__)。A、增強(qiáng)圖像B、簡化圖像C、特征提取D、圖像處理答案:C221.關(guān)于層次聚類算法:(1)不斷重復(fù)直達(dá)達(dá)到預(yù)設(shè)的聚類簇?cái)?shù)(2)不斷合并距離最近的聚類簇(3)對初始聚類簇和相應(yīng)的距離矩陣初始化(4)對合并得到的聚類簇進(jìn)行更新。正確的執(zhí)行順序?yàn)?)。A、1234B、1324C、3241D、3412答案:C222.能使圖像亮度得到平緩漸變,減小突變梯度,改善圖像質(zhì)量的是()。A、圖像平滑B、圖像分類C、圖像識別D、圖像分割答案:A223.關(guān)于HDFS的特征,下列說法錯(cuò)誤的是()。A、支持超大文件B、基于商用硬件C、流式數(shù)據(jù)訪問D、低吞吐量答案:D224.數(shù)組分割使用以下哪個(gè)函數(shù)()。A、vstack()B、hstack()C、split()D、view()答案:C225.以下說法正確的是()。A、散點(diǎn)圖不能在子圖中繪制B、散點(diǎn)圖的x軸刻度必須為數(shù)值C、折線圖可以用作查看特征間的趨勢關(guān)系D、箱線圖可以用來查看特征間的相關(guān)關(guān)系答案:C226.()選擇成為支持向量機(jī)的最大變數(shù)。A、核函數(shù)B、樣本空間C、模型D、算法答案:A227.關(guān)系云的一個(gè)重要功能是提供()。A、數(shù)據(jù)庫即服務(wù)B、虛擬服務(wù)C、彈性計(jì)算D、按需服務(wù)答案:A228.Python的sys模塊常用方法描述錯(cuò)誤的是()。A、sys.argv命令行參數(shù)List,第一個(gè)元素是程序本身路徑B、sys.modules.keys()返回所有字典中的keysC、sys.exc_info()獲取當(dāng)前正在處理的異常類D、sys.exit(n)退出程序答案:B229.檢測一元正態(tài)分布中的離群點(diǎn),屬于異常檢測中的基于()的離群點(diǎn)檢測。A、統(tǒng)計(jì)方法B、鄰近度C、密度D、聚類技術(shù)答案:A230.數(shù)組允許批量計(jì)算而無須任何for循環(huán),這種特性叫()。A、矩陣化;B、便捷化;C、批量化;D、失量化;答案:D231.Hadoop生態(tài)系統(tǒng)中,HBase是一種()。A、分布式文件系統(tǒng)B、數(shù)據(jù)倉庫C、實(shí)時(shí)分布式數(shù)據(jù)庫D、分布式計(jì)算系統(tǒng)答案:C232.scipy中模塊integrate的作用是()。A、程序輸入輸出B、差值計(jì)算C、計(jì)算積分D、向量計(jì)算;答案:C233.下面哪個(gè)操作肯定是寬依賴()A、mapB、flatMapC、reduceByKeyD、sample答案:C234.關(guān)于Python賦值語句,以下選項(xiàng)中不合法的是()。A、x=1;y=1B、x=y=1C、x=(y=1)D、x,y=y,x答案:C235.關(guān)于混合模型聚類算法的優(yōu)缺點(diǎn),下面說法正確的是()。A、當(dāng)簇只包含少量數(shù)據(jù)點(diǎn),或者數(shù)據(jù)點(diǎn)近似協(xié)線性時(shí),混合模型也能很好地處理B、混合模型很難發(fā)現(xiàn)不同大小和橢球形狀的簇C、混合模型比K均值或模糊c均值更一般,因?yàn)樗梢允褂酶鞣N類型的分布D、混合模型在有噪聲和離群點(diǎn)時(shí)不會存在問題答案:C236.()主要提供內(nèi)存計(jì)算框架A、Spark核心層B、資源計(jì)算層C、服務(wù)核心層D、Spark層答案:A237.下列核函數(shù)特性描述錯(cuò)誤的是()。A、只要一個(gè)對稱函數(shù)所對應(yīng)的核矩陣半正定,就能稱為核函數(shù);B、核函數(shù)選擇作為支持向量機(jī)的最大變數(shù);C、核函數(shù)將影響支持向量機(jī)的性能;D、核函數(shù)是一種降維模型;答案:D238.以下說法不正確的是()。A、卷積神經(jīng)網(wǎng)絡(luò)主要用于目標(biāo)識別、圖像分割等方面B、循環(huán)神經(jīng)網(wǎng)絡(luò)主要用于處理序列數(shù)據(jù)C、長短時(shí)記憶神經(jīng)網(wǎng)絡(luò)主要用于處理序列數(shù)據(jù)D、長短時(shí)記憶神經(jīng)網(wǎng)絡(luò)是和循環(huán)神經(jīng)網(wǎng)絡(luò)完全不同的一種新型神經(jīng)網(wǎng)絡(luò)答案:D239.卷積神經(jīng)網(wǎng)絡(luò)(convolutionalneuralnetwork,CNN),是一種專門用來處理具有類似(__)的數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò)。A、網(wǎng)格結(jié)構(gòu)B、數(shù)組結(jié)構(gòu)C、序列結(jié)構(gòu)D、表格結(jié)構(gòu)答案:A240.bootstrap數(shù)據(jù)是什么意思()。A、有放回地從總共M個(gè)特征中抽樣m個(gè)特征B、無放回地從總共M個(gè)特征中抽樣m個(gè)特征C、有放回地從總共N個(gè)樣本中抽樣n個(gè)樣本D、無放回地從總共N個(gè)樣本中抽樣n個(gè)樣本答案:C241.()采用概率模型來表達(dá)聚類原型。A、k均值算法B、學(xué)習(xí)向量量化C、高斯混合聚類D、密度聚類答案:C242.在Hadoop的分區(qū)階段,默認(rèn)的Partitioner是()。A、RangePartitionerB、PartitionerC、HashPartitionerD、用戶自定義的Partitioner答案:C243.決策樹的父節(jié)點(diǎn)和子節(jié)點(diǎn)的熵的大小關(guān)系是什么()。A、父節(jié)點(diǎn)的熵更小B、子節(jié)點(diǎn)的熵更小C、兩者相等D、根據(jù)具體情況而定答案:B244.以下選項(xiàng)中Python用于異常處理結(jié)構(gòu)中用來捕獲特定類型的異常的保留字是()。A、exceptB、doC、passD、while答案:A245.Python中Statsmodels庫適用于()場景。A、統(tǒng)計(jì)分析B、機(jī)器學(xué)習(xí)C、圖像處理D、數(shù)據(jù)建模答案:A246.有關(guān)異常說法正確的是()。A、程序中拋出異常終止程序B、程序中拋出異常不一定終止程序C、拼寫錯(cuò)誤會導(dǎo)致程序終止D、縮進(jìn)錯(cuò)誤會導(dǎo)致程序終止答案:B247.運(yùn)行下面的代碼,輸出結(jié)果是()。D={-2,-1,0,1,2,3}N=d.pop()Print(n)A、-2B、2C、不確定D、3答案:C248.np.dot(【【1,2,3】,【1,2,3】,【1,2,3】】,【【2,1,1】,【2,1,1】,【2,1,1】】)的結(jié)果是()。A、【【1266】【1266】【1266】】B、【【223】【223】【223】】C、【【123】【123】【123】】D、【【211】【211】【211】】答案:A249.Python代碼中mpl.rcParams【'font.sans-serif'】=【'SimHei'】的作用是()。A、設(shè)置圖表中文顯示的字體B、設(shè)置圖表圖例的位置C、設(shè)置圖表標(biāo)題的顏色D、設(shè)置圖表標(biāo)題的位置答案:A250.關(guān)于Sqoop的說法,不正確的是()A、主要設(shè)計(jì)目的是在Hadoop與傳統(tǒng)數(shù)據(jù)庫之間進(jìn)行數(shù)據(jù)的ETL操作B、數(shù)據(jù)導(dǎo)入導(dǎo)出通過MapReduce完成C、Sqoop具備MapReduce的并行化和容錯(cuò)性D、Sqoop的Reduce操作速度更快答案:D251.Scikit-Learn中()可以更好幫助參數(shù)調(diào)優(yōu)和選擇模型。A、均值算法B、均方根算法C、最小二乘法D、交叉驗(yàn)證答案:D252.構(gòu)造了一個(gè)詞表:{1.小明2.喜歡3.踢4.看5.足球6.籃球7.電影},利用上述詞表的索引號,文檔{小明喜歡踢足球}可以用一個(gè)7維向量表示為()。A、【1101001】B、【1111111】C、【1111100】D、【1110100】答案:D253.下列哪個(gè)不屬于CRF模型對于HMM和MEMM模型的優(yōu)勢(__)。A、特征靈活B、速度快C、可容納較多上下文信息D、全局最優(yōu)答案:B254.A=np.array(【【1,1】,【0,1】】),B=np.array(【【2,0】,【3,4】】),A*B的結(jié)果是()。A、【【2,0】,【0,4】】B、【【5,4】,【3,4】】C、【【3,4】,【5,4】】D、無法計(jì)算答案:A255.以下關(guān)于連接數(shù)組不正確的是()。A、concatenate連接沿現(xiàn)有軸的數(shù)組序列B、stack沿著新的軸加入一系列數(shù)組。C、vstack水平堆疊序列中的數(shù)組(列方向)D、hstack3D堆疊序列中的數(shù)組(行方向)答案:D256.RNN不同于其它神經(jīng)網(wǎng)絡(luò)的地方在于(__)。A、實(shí)現(xiàn)了記憶功能B、速度快C、精度高D、易于搭建答案:A257.要彌補(bǔ)缺失值,可以使用均值,中位數(shù),眾數(shù)等等,preprocessing模塊中那個(gè)方法可以實(shí)現(xiàn)()。A、preprocessing.Imputer()B、preprocessing.PolynomialFeatures()C、preprocessing.FunctionTransformer()D、preprocessing.Binarizer()答案:A258.正態(tài)分布的兩個(gè)參數(shù)μ與σ,()對應(yīng)的正態(tài)曲線愈趨扁平。A、μ愈大B、μ愈小C、σ愈大D、σ愈小答案:C259.客戶端從HDFS上讀取數(shù)據(jù)時(shí)會()A、從namenode上獲取數(shù)據(jù)B、從datanode上獲取block位置C、從namenode上獲取block位置D、從namenode上獲取數(shù)據(jù)和block位置答案:C260.下列哪個(gè)程序通常與NameNode在一個(gè)節(jié)點(diǎn)啟動()A、SecondaryNameNodeB、DataNodeC、TaskTrackerD、Jobtracker答案:D261.長短時(shí)記憶神經(jīng)網(wǎng)絡(luò)通過什么來緩解梯度消失問題()A、增加網(wǎng)絡(luò)深度B、減少網(wǎng)絡(luò)神經(jīng)元C、使用雙向的網(wǎng)絡(luò)結(jié)構(gòu)D、增加一個(gè)用來保存長期狀態(tài)的單元答案:D262.文本信息往往包含客觀事實(shí)和主觀情感,對于文本的情感分析主要是識別文章中的主觀類詞語,其中()不適用于情感分析。A、表達(dá)觀點(diǎn)的關(guān)鍵詞B、表達(dá)程度的關(guān)鍵詞C、表達(dá)情緒的關(guān)鍵詞D、表達(dá)客觀事實(shí)的關(guān)鍵詞答案:D263.機(jī)器學(xué)習(xí)訓(xùn)練時(shí),Mini-Batch的大小優(yōu)選為2的冪,如256或512。它背后的原因是什么()。A、Mini-Batch為偶數(shù)的時(shí)候,梯度下降算法訓(xùn)練的更快B、Mini-Batch設(shè)為2的冪,是為了符合CPU、GPU的內(nèi)存要求,利于并行化處理C、不使用偶數(shù)時(shí),損失函數(shù)是不穩(wěn)定的D、以上答案都不正確答案:B264.一個(gè)分布式應(yīng)用程序協(xié)調(diào)服務(wù),分布式應(yīng)用程序可以基于它實(shí)現(xiàn)同步服務(wù),配置維護(hù)和命名服務(wù)等的工具是()。A、FlumeB、ZookeeperC、StormD、Sparkstreaming答案:B265.運(yùn)行下面的代碼,輸出結(jié)果是()。S="Thepythonispython."Print(s.find('python',10))A、10B、20C、14D、系統(tǒng)報(bào)錯(cuò)答案:C266.基于統(tǒng)計(jì)的分詞方法為()。A、正向最大匹配法B、逆向最大匹配法C、最少切分D、條件隨機(jī)場答案:D267.下列極大似然估計(jì)描述錯(cuò)誤的是(__)。A、極大似然估計(jì)先假定其具有某種確定的概率分布形式;B、極大似然估計(jì)沒有確定的概率分布形式;C、概率模型的訓(xùn)練過程就是參數(shù)估計(jì);D、貝葉斯學(xué)派認(rèn)為參數(shù)本身也有分布,是未觀察的隨機(jī)變量;答案:B268.將一副圖像進(jìn)行分割后,分割出的區(qū)域彼此之間(__)重疊。A、可以B、不可以C、根據(jù)任務(wù)需要確定是否可以D、根據(jù)分割方法確定是否可以答案:B269.圖像平滑會造成()。A、圖像邊緣模糊化B、圖像邊緣清晰化C、無影響D、以上答案都不正確答案:A270.以下代碼的輸出結(jié)果為()。ImportnumpyasnpA=np.array(【【3,7,5】,【8,4,3】,【2,4,9】】)Print(np.ptp(a))A、【【375】【843】【249】】B、7C、【457】D、【636】答案:B271.關(guān)于拋出異常的說法中,描述錯(cuò)誤的是()。A、當(dāng)raise指定異常的類名時(shí),會隱式地創(chuàng)建異常類的實(shí)例B、顯式地創(chuàng)建異常類實(shí)例,可以使用raise直接引發(fā)C、不帶參數(shù)的raise語句,只能引發(fā)剛剛發(fā)生過的異常D、使用raise拋出異常時(shí),無法指定描述信息答案:D272.關(guān)于循環(huán)神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)的敘述中,錯(cuò)誤的是()。A、能處理可變長度的序列B、基于圖展開思想C、基于參數(shù)共享思想D、循環(huán)神經(jīng)網(wǎng)絡(luò)不可應(yīng)用于圖像數(shù)據(jù)答案:D273.圖像灰度方差說明了圖像的哪一個(gè)屬性()。A、平均灰度B、圖像對比度C、圖像整體亮度D、圖像細(xì)節(jié)答案:B274.一監(jiān)獄人臉識別準(zhǔn)入系統(tǒng)用來識別待進(jìn)入人員的身份,此系統(tǒng)一共包括識別4種不同的人員:獄警,小偷,送餐員,其他人員。下面哪種學(xué)習(xí)方法最適合此種應(yīng)用需求()A、二分類問題B、層次聚類問題C、多分類問題D、回歸問題答案:C275.當(dāng)需要在字符串中使用特殊字符時(shí),python使用()作為轉(zhuǎn)義字符。A、\B、/C、#D、%答案:A276.以下()屬于數(shù)據(jù)可視化方法體系中的基礎(chǔ)方法。A、視覺編碼方法論B、視覺隱喻C、地理信息可視化D、時(shí)變數(shù)據(jù)可視化答案:B277.Spark那個(gè)組件用于支持實(shí)時(shí)計(jì)算需求()。A、SparkSQLB、SparkStreamingC、SparkGraphXD、SparkMLLib答案:B278.下列哪種業(yè)務(wù)場景中,不能直接使用Reducer充當(dāng)biner使用()A、sum求和B、max求最大值C、count求計(jì)數(shù)D、avg求平均答案:D279.scipy.stats模塊中隨機(jī)變量的概率密度函數(shù)是()。A、statsB、fitC、pdfD、ppf答案:C280.生成二項(xiàng)式離散隨機(jī)變量使用以下哪個(gè)函數(shù)()。A、stats.bernoulli()B、stats.binom()C、stats.geom()D、stats.randint()答案:B281.下面哪個(gè)是滿足期望輸出的代碼()。Arr=np.array(【0,1,2,3,4,5,6,7,8,9】)期望輸出:array(【1,3,5,7,9】)A、arr%2==1B、arr【arr%2==1】C、arr【arr/2==1】D、arr【arr//2==1】答案:B282.關(guān)于Python的lambda函數(shù),以下選項(xiàng)中描述錯(cuò)誤的是()。A、可以使用lambda函數(shù)定義列表的排序原則B、f=lambdax,y:x+y執(zhí)行后,f的類型為數(shù)字類型C、lambda函數(shù)是匿名函數(shù)D、lambda用于定義簡單的能夠在一行內(nèi)表示的函數(shù)答案:B283.以下代碼的輸出結(jié)果為()。ImportnumpyasnpA=np.array(【【10,7,4】,【3,2,1】】)Print(np.percentile(a,50))A、【【1074】【321】】B、3.5C、【】D、【7.2.】答案:B284.matplotlib中的barh函數(shù)可以繪制()圖。A、直方圖B、餅圖C、條形圖D、氣泡圖答案:C285.下面選項(xiàng)不正確的是()。ImportnumpyasnpX=np.array(【【1,2】,【3,4】】)Y=np.linalg.inv(x)Print(y)A、【【12】【34】】B、【【-2.1.】【1.5-0.5】】C、【【1.0.】【2.1.】】D、以上答案均不正確答案:B286.以下哪個(gè)不是HDFS的守護(hù)進(jìn)程()A、secondarynamenodeB、datanodeC、mrappmaster/yarnchildD、namenode答案:C287.DNN常用的激活函數(shù)有(__)。A、sigmoidB、tanhC、ReLUD、以上答案都正確答案:D288.美國海軍軍官莫里通過對前人航海日志的分析,繪制了新的航海路線圖,標(biāo)明了大風(fēng)與洋流可能發(fā)生的地點(diǎn)。這體現(xiàn)了大數(shù)據(jù)分析理念中的()。A、在數(shù)據(jù)基礎(chǔ)上傾向于全體數(shù)據(jù)而不是抽樣數(shù)據(jù)B、在分析方法上更注重相關(guān)分析而不是因果分析C、在分析效果上更追究效率而不是絕對精確D、在數(shù)據(jù)規(guī)模上強(qiáng)調(diào)相對數(shù)據(jù)而不是絕對數(shù)據(jù)答案:B289.不屬于數(shù)據(jù)脫敏的要求的是()。A、雙向性B、單向性C、無殘留D、易于實(shí)現(xiàn)答案:A290.Scipy庫不包含以下哪種功能()。A、線性代數(shù)模塊B、傅里葉變換C、信號和圖像圖例D、提供機(jī)器學(xué)習(xí)等算法答案:D291.matplotlib中調(diào)用直方圖的函數(shù)是()。A、plot()B、scatter()C、bar()D、hist()答案:D292.KNN最近鄰分類算法的過程()1.計(jì)算訓(xùn)練樣本和測試樣本中每個(gè)樣本點(diǎn)的距離(常見的距離度量有歐式距離,馬氏距離等);2.對上面所有的距離值進(jìn)行排序;3.選前k個(gè)最小距離的樣本;4.根據(jù)這k個(gè)樣本的標(biāo)簽進(jìn)行投票,得到最后的分類類別。A、B、C、D、答案:C293.()是表現(xiàn)數(shù)據(jù)分布對稱性的指標(biāo)。A、斜率B、偏斜度C、偏度D、偏離度答案:B294.random庫的seed(a)函數(shù)的作用是()。A、生成一個(gè)【0.0,1.0)之間的隨機(jī)小數(shù)B、生成一個(gè)k比特長度的隨機(jī)整數(shù)C、設(shè)置初始化隨機(jī)數(shù)種子aD、生成一個(gè)隨機(jī)整數(shù)答案:C295.Hadoop生態(tài)系統(tǒng)中,()的主要設(shè)計(jì)目的是在Hadoop與傳統(tǒng)數(shù)據(jù)庫之間進(jìn)行數(shù)據(jù)的ETL操作。A、HDFSB、FlumeC、HiveD、Sqoop答案:D296.在MapReduce中,以下描述中錯(cuò)誤的是()。A、經(jīng)過map()函數(shù)的計(jì)算可以得出一個(gè)中間數(shù)據(jù)集B、map()函數(shù)是確定的,用戶不可自定義C、對map()函數(shù)的返回值,進(jìn)行一定的處理后才進(jìn)入下個(gè)階段D、map()函數(shù)的輸入輸出都是同一數(shù)據(jù)結(jié)構(gòu)答案:B297.下面與HDFS類似的框架是()A、NTFSB、FAT32C、GFSD、EXT3答案:C298.Python對not、or、and求值的優(yōu)先順序是()。A、andornotB、notandorC、orandnotD、ornotnad答案:B299.stats()函數(shù)不能求以下哪個(gè)值()。A、均值B、方差C、峰度D、眾數(shù)答案:D300.當(dāng)構(gòu)建一個(gè)神經(jīng)網(wǎng)絡(luò)進(jìn)行圖片的語義分割時(shí),通常采用下面哪種順序()。A、先用卷積神經(jīng)網(wǎng)絡(luò)處理輸入,再用反卷積神經(jīng)網(wǎng)絡(luò)得到輸出B、先用反卷積神經(jīng)網(wǎng)絡(luò)處理輸入,再用卷積神經(jīng)網(wǎng)絡(luò)得到輸出C、不能確定答案:A多選題1.下面哪些是循環(huán)神經(jīng)網(wǎng)絡(luò)的輸出模式(__)。A、多輸出B、單輸出C、同步多輸出D、異步多輸出答案:ABD2.從Hadoop實(shí)現(xiàn)角度看,HadoopMapReduce1.0主要由()組成。A、編程模型B、數(shù)據(jù)處理引擎C、運(yùn)行時(shí)環(huán)境D、算法庫答案:ABC3.一個(gè)監(jiān)督觀測值集合會被劃分為()。A、訓(xùn)練集B、驗(yàn)證集C、測試集D、預(yù)處理集答案:

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論