




版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡介
PAGEPAGE12024年數(shù)據(jù)價(jià)值挖掘技能競賽考試題庫大全-上(單選題匯總)一、單選題1.平滑圖像處理可以采用RGB彩色()模型。A、直方圖均衡化B、直方圖均衡化C、加權(quán)均值濾波D、中值濾波答案:C2.()是指對(duì)于數(shù)據(jù)局部不良行為的非敏感性,它是探索性分析追求的主要目標(biāo)之一。A、魯棒性B、穩(wěn)定性C、可靠性D、耐抗性答案:D3.對(duì)Python的sys模塊常用方法的描述,錯(cuò)誤的是()。A、sys.argv命令行參數(shù)List,第一個(gè)元素是程序本身路徑B、sys.modules.keys)返回所有字典中的keysC、sys.exc_info)獲取當(dāng)前正在處理的異常類D、sys.exit(n)退出程序答案:B4.對(duì)于PCA處理后的特征,其樸素貝葉斯特征相互獨(dú)立的假設(shè)一定成立,因?yàn)樗兄鞒煞侄际钦坏?,所以不相關(guān)。這句話()。A、正確B、錯(cuò)誤C、-D、-答案:B5.pynlpir是一種常用的自然語言理解工具包,其中進(jìn)行分詞處理的函數(shù)是()。A、open()B、segment()C、AddUserWord()D、generate()答案:B6.在matplotlib中,以下關(guān)于繪圖標(biāo)準(zhǔn)流程說法錯(cuò)誤的是()。A、繪制最簡單的圖形可以不用創(chuàng)建畫布B、添加圖例可以在繪制圖形之前C、添加x軸、y軸的標(biāo)簽可以在繪制圖形之前D、修改x軸標(biāo)簽、y軸標(biāo)簽和繪制圖形沒有先后答案:B7.使用似然函數(shù)的目的是()。A、求解目標(biāo)函數(shù)B、得到最優(yōu)數(shù)據(jù)樣本C、找到最適合數(shù)據(jù)的參數(shù)D、改變目標(biāo)函數(shù)分布答案:C8.假設(shè)我們使用原始的非線性可分版本的Soft-SVM優(yōu)化目標(biāo)函數(shù)。我們可通過()來保證得到的模型是線性可分離的。A、C=0B、C=1C、正無窮大D、C負(fù)無窮大答案:C9.線性回歸的基本假設(shè)不包括()。A、隨機(jī)誤差項(xiàng)是一個(gè)期望值為0的隨機(jī)變量B、對(duì)于解釋變量的所有觀測值,隨機(jī)誤差項(xiàng)有相同的方差C、隨機(jī)誤差項(xiàng)彼此相關(guān)D、解釋變量是確定性變量不是隨機(jī)變量,與隨機(jī)誤差項(xiàng)之間相互獨(dú)立答案:C10.隨機(jī)森林與Bagging中基學(xué)習(xí)器多樣性的區(qū)別是()。A、都來自樣本擾動(dòng)B、都來自屬性擾動(dòng)C、來自樣本擾動(dòng)和自屬性擾動(dòng)D、多樣本集結(jié)合答案:C11.過濾式特征選擇與學(xué)習(xí)器(),包裹式特征選擇與學(xué)習(xí)器()。A、相關(guān),相關(guān)B、相關(guān),不相關(guān)C、不相關(guān),相關(guān)D、不相關(guān),不相關(guān)答案:C12.以下代碼的輸出結(jié)果為()。A、[012345678]B、[array([0,1,2]),array([3,4,5]),array([6,7,8])]C、[array([0,1,2,3]),array([4,5,6]),array([7,8])]D、沒有正確答案答案:B13.在MapReduce計(jì)算架構(gòu)中,()組件運(yùn)行在DataNode上,具體管理本節(jié)點(diǎn)計(jì)算任務(wù)的執(zhí)行。A、ClientB、JobTrackerC、TaskTrackerD、Task答案:C14.假設(shè)我們擁有一個(gè)已完成訓(xùn)練的、用來解決車輛檢測問題的深度神經(jīng)網(wǎng)絡(luò)模型,訓(xùn)練所用的數(shù)據(jù)集由汽車和卡車的照片構(gòu)成,而訓(xùn)練目標(biāo)是檢測出每種車輛的名稱(車輛共有10種類型)。現(xiàn)在想要使用這個(gè)模型來解決另外一個(gè)問題,問題數(shù)據(jù)集中僅包含一種車(福特野馬)而目標(biāo)變?yōu)槎ㄎ卉囕v在照片中的位置,則應(yīng)采取的方法是()。A、除去神經(jīng)網(wǎng)絡(luò)中的最后一層,凍結(jié)所有層然后重新訓(xùn)練B、對(duì)神經(jīng)網(wǎng)絡(luò)中的最后幾層進(jìn)行微調(diào),同時(shí)將最后一層(分類層)更改為回歸層C、使用新的數(shù)據(jù)集重新訓(xùn)練模型D、所有答案均不對(duì)答案:B15.scipy庫中用于物理和數(shù)學(xué)常量計(jì)算的模塊是()。A、scipy.clusterB、scipy.ioC、scipy.constantsD、scipy.linalg答案:C16.下列關(guān)于文本分類的說法不正確的是()。A、文本分類是指按照預(yù)先定義的主題類別,由計(jì)算機(jī)自動(dòng)地為文檔集合中的每個(gè)文檔確定一個(gè)類別B、文本分類大致可分為基于知識(shí)工程的分類系統(tǒng)和基于機(jī)器學(xué)習(xí)的分類系統(tǒng)C、文本的向量形式一般基于詞袋模型構(gòu)建,該模型考慮了文本詞語的行文順序D、構(gòu)建文本的向量形式可以歸結(jié)為文本的特征選擇與特征權(quán)重計(jì)算兩個(gè)步驟答案:C17.圖像平滑會(huì)造成()。A、圖像邊緣模糊化B、圖像邊緣清晰化C、無影響D、以上答案都不正確答案:A18.數(shù)據(jù)產(chǎn)品開發(fā)工作之中需要特別注意的基本活動(dòng)不包括()。A、創(chuàng)造性設(shè)計(jì)B、數(shù)據(jù)洞見C、虛擬化D、個(gè)性化描述答案:D19.數(shù)據(jù)倉庫是隨著時(shí)間變化的,下面的描述不正確的是()。A、數(shù)據(jù)倉庫隨時(shí)間的變化不斷增加新的數(shù)據(jù)內(nèi)容B、捕捉到的新數(shù)據(jù)會(huì)覆蓋原來的快照C、數(shù)據(jù)倉庫隨事件變化不斷刪去舊的數(shù)據(jù)內(nèi)容D、數(shù)據(jù)倉庫中包含大量的綜合數(shù)據(jù),這些綜合數(shù)據(jù)會(huì)隨著時(shí)間的變化不斷地進(jìn)行重新綜合答案:C20.()與HDFS類似。A、NTFSB、FAT32C、GFSD、EXT3答案:C21.設(shè)計(jì)為8層的卷積神經(jīng)網(wǎng)絡(luò)AlexNet網(wǎng)絡(luò)成功使用()函數(shù),其效果遠(yuǎn)遠(yuǎn)地超過了Sigmoid函數(shù)。A、ReLU函數(shù)B、sigmoid函數(shù)C、tanh函數(shù)D、sin函數(shù)答案:A22.選擇神經(jīng)網(wǎng)絡(luò)的深度時(shí),對(duì)于下面參數(shù):①神經(jīng)網(wǎng)絡(luò)的類型(如MLP,CNN);②輸入數(shù)據(jù);③計(jì)算能力(硬件和軟件能力決定);④學(xué)習(xí)速率;⑤映射的輸出函數(shù),需要考慮的是()。A、①②③④B、②③④⑤C、都需要考慮D、①③④⑤答案:C23.()屬于SVM應(yīng)用。A、文本和超文本分類B、圖像分類C、新文章聚類D、以上均是答案:D24.有數(shù)組n=np.arange(24).reshape(2,-1,2,2),np.shape的返回結(jié)果是()。A、(2,3,2,2)B、(2,2,2,2)C、(2,4,2,2)D、(2,6,2,2)答案:A25.下列關(guān)于分詞的說法正確的是()。A、中文中句、字之間沒有空格,無法分詞B、一個(gè)句子的分詞結(jié)果是唯一的C、中文分詞是將一系列無空格間隔字符串分割成一系列單詞的過程D、分詞沒有實(shí)際應(yīng)用價(jià)值答案:C26.運(yùn)行下面的代碼,輸出結(jié)果是()。A、-2B、2C、不確定D、3答案:C27.HBase使用一個(gè)()節(jié)點(diǎn)協(xié)調(diào)管理一個(gè)或多個(gè)RegionServer從屬機(jī)。A、NameNodeB、DataNodeC、JobTrackerD、Master答案:D28.對(duì)于數(shù)據(jù)3,3,2,3,6,3,10,3,6,3,2.,得出以下結(jié)論:①這組數(shù)據(jù)的眾數(shù)是3;②這組數(shù)據(jù)的眾數(shù)與中位數(shù)的數(shù)值不相等;③這組數(shù)據(jù)的中位數(shù)與平均數(shù)的數(shù)值不相等;④這組數(shù)據(jù)的平均數(shù)與眾數(shù)的數(shù)值相等.。其中正確結(jié)論的個(gè)數(shù)為()。A、1B、2C、3D、4答案:B29.geoplot是()庫和()庫的擴(kuò)展。A、cartopy和seabornB、seaborn和matplotlibC、artopy和matplotlibD、matplotlib和ggplot2答案:C30.pyplot.pie)所畫的圖像是()。A、箱線圖B、折線圖C、直方圖D、餅圖答案:D31.下面哪個(gè)是針對(duì)下列程序,滿足期望輸出的代碼是()。A、rr%2==1B、arr[arr%2==1]C、arr[arr/2==1]D、arr[arr//2==1]答案:B32.隨著集成中個(gè)體分類器(相互獨(dú)立)數(shù)目T的增大,集成的錯(cuò)誤率將呈()下降,最終趨向于零。A、指數(shù)級(jí)B、對(duì)數(shù)級(jí)C、線性級(jí)D、平方級(jí)答案:A33.以下處理能獲得像素級(jí)標(biāo)注的是()。A、圖像分類B、物體檢測C、圖像去噪D、語義分割答案:D34.對(duì)分類任務(wù)來說,學(xué)習(xí)器從類別標(biāo)記集合中預(yù)測出一個(gè)標(biāo)記,最常見的結(jié)合策略是()。A、投票法B、平均法C、學(xué)習(xí)法D、排序法答案:A35.假設(shè)你在卷積神經(jīng)網(wǎng)絡(luò)的第一層中有5個(gè)卷積核,每個(gè)卷積核尺寸為7×7,具有零填充且步幅為1。該層的輸入圖片的維度是224×224×3。那么該層輸出的維度是()。A、217x217x3B、217x217x8C、218x218x5D、220x220x7答案:C36.以下屬于圖像處理的常用方法有()。A、圖像變換B、圖像編碼壓縮C、圖像增強(qiáng)和復(fù)原D、以上答案都正確答案:D37.下列關(guān)于TF-IDF說法正確的是()。A、該值與特征項(xiàng)在文檔中出現(xiàn)的頻率成反比B、該值與特征項(xiàng)在文檔中出現(xiàn)的頻率成正比C、該值與在整個(gè)語料庫中出現(xiàn)該特征項(xiàng)的文檔庫成正比D、該值與特征項(xiàng)在文檔中出現(xiàn)的頻率無關(guān)答案:B38.在matplotlib中,在當(dāng)前圖形上添加一個(gè)子圖需要用到哪個(gè)的方法是()。A、plt.stackplot)B、plt.suptitle)C、plt.subplot)D、plt.imshow)答案:C39.()的本質(zhì)是將低層次數(shù)據(jù)轉(zhuǎn)換為高層次數(shù)據(jù)的過程。A、數(shù)據(jù)處理B、數(shù)據(jù)計(jì)算C、數(shù)據(jù)加工D、整齊數(shù)據(jù)答案:C40.()是指為最小化總體風(fēng)險(xiǎn),只需在每個(gè)樣本上選擇能使特定條件風(fēng)險(xiǎn)最小的類別標(biāo)記。A、支持向量機(jī)B、間隔最大化C、線性分類器D、貝葉斯判定準(zhǔn)則答案:D41.Numpy.array數(shù)組的簡稱是()。A、rrayB、nparrayC、NdarrayD、pyarray答案:C42.以下代碼的輸出結(jié)果為()。A、[101001000]B、[100100001000000]C、[123]D、[10100001000000000]答案:B43.()是基于規(guī)則的分類器。A、C4.5B、KNNC、NaiveBayesD、ANN答案:A44.一切皆可連,任何數(shù)據(jù)之間邏輯上都有可能存在聯(lián)系,這體現(xiàn)了大數(shù)據(jù)思維維度中的()。A、定量思維B、相關(guān)思維C、因果思維D、檢驗(yàn)思維答案:B45.屬于深度學(xué)習(xí)框架的是()。A、TensorflowB、CaffeC、PyTorchD、以上答案都正確答案:D46.下面代碼print(0.1+0.2==0.3)的輸出結(jié)果是()。A、TRUEB、FALSEC、TRUED、FALSE答案:B47.列表中可以放多少()個(gè)字符串()。A、1B、255C、無限個(gè)D、由用戶自己定義答案:C48.關(guān)于Hive說法正確的是()。A、一種數(shù)據(jù)倉庫B、一種數(shù)據(jù)處理工具C、一種可視化工具D、一種分析算法答案:A49.Numpy中確定隨機(jī)數(shù)生成種子使用以下哪個(gè)的函數(shù)是()。A、np.random)B、np.random.seed)C、np.uniform)D、np.eig)答案:B50.隨機(jī)森林中的隨機(jī)是指()。A、隨便構(gòu)建樹模B、隨機(jī)選擇一個(gè)樹模型C、隨機(jī)選擇多個(gè)樹模型D、在構(gòu)建每個(gè)樹模型時(shí)隨機(jī)選擇樣本和特征答案:D51.客戶端從HDFS上讀取數(shù)據(jù)時(shí)會(huì)()。A、從NameNode上獲取數(shù)據(jù)B、從DataNode上獲取Block位置C、從NameNode上獲取Block位置D、從NameNode上獲取數(shù)據(jù)和Block位置答案:C52.()是表示數(shù)據(jù)分布是否為對(duì)稱性的統(tǒng)計(jì)量。A、方差B、中位數(shù)C、偏態(tài)D、峰態(tài)答案:C53.下列關(guān)于Python全局變量和局部變量的描述,不正確的是()。A、local關(guān)鍵字用于定義局部變量,global關(guān)鍵字用于定義全局變量B、關(guān)鍵字local定義的變量僅在該函數(shù)內(nèi)可見C、關(guān)鍵字global定義全局變量時(shí)必須自成一行D、nonlocal變量不可以在內(nèi)嵌函數(shù)中使用答案:D54.以下關(guān)于Python模塊理解錯(cuò)誤的有()。A、模塊是包含函數(shù)和變量的Python文件B、不可以使用.操作符訪問模塊中的函數(shù)和變量C、可以導(dǎo)入模塊中的所有類D、可以在一個(gè)模塊中導(dǎo)入另一個(gè)模塊答案:B55.MapReduce默認(rèn)的分區(qū)函數(shù)是()。A、hashB、diskC、reduceD、map答案:A56.下面算法中屬于圖像銳化處理的是()。A、低通濾波B、加權(quán)平均法C、高通濾波D、中值濾波答案:C57.在Hadoop生態(tài)系統(tǒng)中,()可以將結(jié)構(gòu)化的數(shù)據(jù)文件映射成一張數(shù)據(jù)庫表,并提供簡單的查詢語言。A、PigB、HBaseC、HiveD、MapReduce答案:C58.在linux下預(yù)裝了Python2,、Python3且默認(rèn)Python版本為Python3,下列描述可以正確啟動(dòng)Python有的是()。A、在linux應(yīng)用程序Terminal,打開一個(gè)終端窗口。輸入whichPythonB、在linux應(yīng)用程序Terminal,打開一個(gè)終端窗口。輸入Python2或Python3C、在linux應(yīng)用程序Terminal,打開一個(gè)終端窗口。輸入whichPython3D、在linux應(yīng)用程序Terminal,打開一個(gè)終端窗口。輸入輸入whichPython2答案:B59.關(guān)于Hive說法正確的是()。A、一種數(shù)據(jù)倉庫B、一種數(shù)據(jù)處理工具C、一種可視化工具D、一種分析算法答案:A60.MapReduce編程模型,鍵值對(duì)<key,value>的key必須實(shí)現(xiàn)哪個(gè)接口()。A、WritableComparableB、ComparableC、WritableD、LongWritable答案:A61.a=np.array([1,0,0,3,4,5,0,8]),b=np.nonzero(a),則A、[0,3,4,5,7]B、[1,3,4,5,8]C、[03457]D、[13458]答案:A62.數(shù)據(jù)集成的基本類型是()。A、內(nèi)容集成、結(jié)構(gòu)集成B、內(nèi)容集成、規(guī)約集成C、規(guī)約集成、結(jié)構(gòu)集成D、模式集成、結(jié)構(gòu)集成答案:A63.下列()不屬于Statsmodels模塊的主要特點(diǎn)的是()。A、線性模型B、方差分析C、時(shí)間序列D、插值運(yùn)算答案:D64.對(duì)模型進(jìn)行交叉驗(yàn)證可以使用以下哪種()方法()。A、learning_curve)B、cross_val_score)C、permutation_test_scoreD、validation)答案:B65.matplotlib中的step函數(shù)繪制的是什么圖()。A、階梯圖B、直方圖C、間斷條形圖D、堆積折線圖答案:A66.事務(wù)對(duì)數(shù)據(jù)對(duì)象加鎖后擁有何種控制權(quán)是由封鎖的()決定的。A、狀態(tài)B、類型C、數(shù)量D、屬性答案:B67.下列不屬于Action操作的是()。A、collectB、filterC、reduceD、count答案:B68.Spark核心層主要關(guān)注()問題。A、存儲(chǔ)B、計(jì)算C、傳輸D、連接答案:B69.下列關(guān)于表述數(shù)據(jù)可視化在數(shù)據(jù)科學(xué)中重要地位說法中,下列不正確的是()。A、視覺是人類獲得信息的最主要途徑B、數(shù)據(jù)可視化處理可以洞察統(tǒng)計(jì)分析無法發(fā)現(xiàn)的結(jié)構(gòu)和細(xì)節(jié)C、數(shù)據(jù)可視化處理結(jié)果的解讀對(duì)用戶知識(shí)水平的要求較高D、可視化能夠幫助人們提高理解與處理數(shù)據(jù)的效率答案:C70.K折交叉驗(yàn)證器是以下哪個(gè)()方法()。A、model_selection.GroupKFold)B、model_selection.GroupShuffleSplit)C、model_selection.KFold)D、model_selection.RepeatedKFold)答案:C71.數(shù)據(jù)倉庫的最終目的是()。A、收集業(yè)務(wù)需求B、建立數(shù)據(jù)倉庫邏輯模型C、開發(fā)數(shù)據(jù)倉庫的應(yīng)用分析D、為用戶和業(yè)務(wù)部門提供決策支持答案:D72.設(shè)置圖的標(biāo)題的命令是()。A、plt.text('標(biāo)題')B、plt.legend('標(biāo)題')C、plt.xticks('標(biāo)題')D、plt.title('標(biāo)題')答案:D73.一位母親記錄了兒子3~9歲的身高,由此建立的身高與年齡的回歸直線方程為y=7.19x+73.93,據(jù)此可以預(yù)測這個(gè)孩子10歲時(shí)的身高,則正確的敘述是()。A、身高一定是145.83cmB、身高一定超過146.00cmC、身高一定高于145.00cmD、身高在145.83cm左右答案:D74.以下選項(xiàng)中哪個(gè)不屬于數(shù)據(jù)預(yù)處理的方法()。A、數(shù)據(jù)清洗B、數(shù)據(jù)集成C、數(shù)據(jù)變換D、數(shù)據(jù)統(tǒng)計(jì)答案:D75.如果只寫open(filename),那就是用()模式打開。A、rB、wC、aD、b答案:A76.以下選項(xiàng)中,正確地描述了浮點(diǎn)數(shù)0.0和整數(shù)0相同性的是()。A、它們使用相同的硬件執(zhí)行單元B、它們具有相同的數(shù)據(jù)類型C、它們具有相同的值D、它們使用相同的計(jì)算機(jī)指令處理方法答案:C77.以下關(guān)于模塊說法錯(cuò)誤的是()。A、一個(gè)xx.py就是一個(gè)模塊;B、任何一個(gè)普通的xx.py文件可以作為模塊導(dǎo)入;C、模塊文件的擴(kuò)展名不一定是.py;D、運(yùn)行時(shí)會(huì)從指定的目錄搜索導(dǎo)入的模塊,如果沒有,會(huì)報(bào)錯(cuò)異常答案:C78.np.setdiff1d(Ndarray1,Ndarray2)函數(shù)的作用是()。A、返回二者的交集并排序B、返回二者的并集并排序C、返回二者的差集D、返回二者的對(duì)稱差答案:C79.關(guān)于eval函數(shù),以下選項(xiàng)中描述錯(cuò)誤的是()。A、eval函數(shù)的作用是將輸入的字符串轉(zhuǎn)為Python語句,并執(zhí)行該語句B、如果用戶希望輸入一個(gè)數(shù)字,并用程序?qū)@個(gè)數(shù)字進(jìn)行計(jì)算,可以采用eval(input(<輸入提示字符串>)組合C、執(zhí)行eval("Hello")和執(zhí)行eval("'Hello'")得到相同的結(jié)果D、eval函數(shù)的定義為:eval(source,globals=None,locals=None,/)答案:C80.以下代碼的輸出結(jié)果為()。A、[[0,2,3],[4,6,7],[8,10,11],[12,14,15]]B、[[0,1,2,3],[8,9,10,11],[12,13,14,15]]C、[[0,1,2,3],[4,5,6,7],[8,9,10,11],[12,13,14,15]]D、[[1,2,3],[5,6,7],[9,10,11],[13,14,15]]答案:C81.Matplotlib的核心是面向()。A、過程B、對(duì)象C、結(jié)果D、服務(wù)答案:B82.在Python中,函數(shù)()。A、不可以嵌套定義B、不可以嵌套調(diào)用C、不可以遞歸調(diào)用D、以上答案都不正確答案:D83.在linux下預(yù)裝了Python2,、Python3且默認(rèn)Python版本為Python3,下列描述可以正確啟動(dòng)Python有的是()。A、在linux應(yīng)用程序Terminal,打開一個(gè)終端窗口。輸入whichPythonB、在linux應(yīng)用程序Terminal,打開一個(gè)終端窗口。輸入Python2或Python3C、在linux應(yīng)用程序Terminal,打開一個(gè)終端窗口。輸入whichPython3D、在linux應(yīng)用程序Terminal,打開一個(gè)終端窗口。輸入輸入whichPython2答案:B84.HadoopMapReduce2.0中,()負(fù)責(zé)資源的管理和調(diào)度。A、JobTrackerB、YARNC、TaskTrackerD、ApplicationMaster答案:B85.AGNES是一種采用()策略的層次聚類算法。A、自頂向下B、自底向上C、自左至右D、自右至左答案:B86.標(biāo)準(zhǔn)BP算法的目標(biāo)是使訓(xùn)練集上的()最小。A、累積方差B、累積誤差C、累積協(xié)方差D、累積偏差答案:B87.大數(shù)據(jù)涌現(xiàn)現(xiàn)象的形式有多種,不屬于大數(shù)據(jù)涌現(xiàn)形式的是()。A、價(jià)值涌現(xiàn)B、隱私涌現(xiàn)C、物質(zhì)涌現(xiàn)D、質(zhì)量涌現(xiàn)答案:C88.下列算法中,()更適合做時(shí)間序列建模。A、CNNB、決策樹C、LSTMD、貝葉斯算法答案:C89.Hadoop中partition()函數(shù)代表的是()。A、分區(qū)函數(shù)B、特征函數(shù)C、算法函數(shù)D、排序函數(shù)答案:A90.針對(duì)以下數(shù)組,下面哪個(gè)選項(xiàng)可以獲取兩個(gè)PythonNumpy數(shù)組之間的公共項(xiàng)的是()。A、intersect1d(a,b)B、ersect1d(a,b)C、erset(a,b)D、ersect1d(a)答案:B91.美國海軍軍官莫里通過對(duì)前人航海日志的分析,繪制了新的航海路線圖,標(biāo)明了大風(fēng)與洋流可能發(fā)生的地點(diǎn)。這體現(xiàn)了大數(shù)據(jù)分析理念中的()。A、在數(shù)據(jù)基礎(chǔ)上傾向于全體數(shù)據(jù)而不是抽樣數(shù)據(jù)B、在分析方法上更注重相關(guān)分析而不是因果分析C、在分析效果上更追究效率而不是絕對(duì)精確D、在數(shù)據(jù)規(guī)模上強(qiáng)調(diào)相對(duì)數(shù)據(jù)而不是絕對(duì)數(shù)據(jù)答案:B92.在scipyScipy中,想要生成20個(gè)服從正態(tài)分布的隨機(jī)數(shù)使用以下哪個(gè)函數(shù)()。A、stats.uniform.rvs(size=20)B、stats.norm.rvs(size=20)C、stats.beta.rvs(size=20)D、stats.poisson.rvs(size=20)答案:B93.數(shù)據(jù)的原始內(nèi)容及其備份數(shù)據(jù),是數(shù)據(jù)產(chǎn)品的研發(fā)的哪個(gè)階段()。A、零次數(shù)據(jù)B、一次數(shù)據(jù)C、二次數(shù)據(jù)D、采集數(shù)據(jù)答案:A94.多分類LDA將樣本投影到N-1維空間,N-1通常遠(yuǎn)小于數(shù)據(jù)原有的屬性數(shù),可通過這個(gè)投影來減小樣本點(diǎn)的維數(shù),且投影過程中使用了類別信息,因此LDA也常被視為一種經(jīng)典的()技術(shù)。A、無監(jiān)督特征選擇B、無監(jiān)督降維C、監(jiān)督特征選擇D、監(jiān)督降維答案:D95.()算法是一種挖掘關(guān)聯(lián)規(guī)則的頻繁項(xiàng)集算法,其核心思想是通過候選集生成和檢測兩個(gè)階段來挖掘頻繁項(xiàng)集。A、prioriB、EMC、PCAD、PAC答案:A96.以下代碼的輸出結(jié)果為()。A、[[1074][321]]B、3.5C、[]D、[7.2.]答案:B97.scipyScipy通常與下列哪個(gè)庫()同時(shí)使用()。A、pandasB、scikit-learnC、NumpyD、jieba答案:C98.數(shù)據(jù)使用環(huán)節(jié)的安全技術(shù)措施除防火墻、()、防病毒、防DDOS、漏洞檢測等網(wǎng)絡(luò)安全防護(hù)技術(shù)措施外,還需實(shí)現(xiàn)以下安全技術(shù)能力:賬號(hào)權(quán)限管理、數(shù)據(jù)安全域、數(shù)據(jù)脫敏、日志管理和審計(jì)、異常行為實(shí)時(shí)監(jiān)控和終端數(shù)據(jù)防泄漏。A、入侵檢測B、病毒檢測C、程序檢測D、進(jìn)程檢測答案:A99.協(xié)同過濾分析用戶興趣,在用戶群中找到指定用戶的相似(興趣)用戶,綜合這些用戶對(duì)某一信息的評(píng)價(jià),形成系統(tǒng)對(duì)該指定用戶對(duì)此信息的喜好程度(),并將這些用戶喜歡的項(xiàng)推薦給有相似興趣的用戶。A、相似B、相同C、推薦D、預(yù)測答案:D100.下列哪些不是目前機(jī)器學(xué)習(xí)所面臨的問題是()。A、測試集的規(guī)模B、維度災(zāi)難C、特征工程D、過擬合答案:A101.下列程序打印結(jié)果為()。A、PythonB、PythC、thon’sD、Python‘sfeatures答案:B102.關(guān)于文件的打開方式,以下選項(xiàng)中描述正確的是()。A、文件只能選擇二進(jìn)制或文本方式打開B、文本文件只能以文本方式打開C、所有文件都可能以文本方式打開D、所有文件都可能以二進(jìn)制方式打開答案:D103.利用到每個(gè)聚類中心和的遠(yuǎn)近判斷離群值的方法,可以基于的算法為()。A、K-meansB、KNNC、SVMD、LinearRegression答案:A104.如果使用線性回歸模型,下列說法正確的是()。A、檢查異常值是很重要的,因?yàn)榫€性回歸對(duì)離群效應(yīng)很敏感B、線性回歸分析要求所有變量特征都必須具有正態(tài)分布C、線性回歸假設(shè)數(shù)據(jù)中基本沒有多重共線性D、以上說法都不對(duì)答案:A105.Seaborn要求原始數(shù)據(jù)的輸入類型不能是()A、DataframeB、SeriesC、NumpyD、-答案:B106.已知一組數(shù)據(jù)的協(xié)方差矩陣P,下面關(guān)于主分量說法錯(cuò)誤的是()。A、主分量分析的最佳準(zhǔn)則是對(duì)一組數(shù)據(jù)進(jìn)行按一組正交基分解,在只取相同數(shù)量分量的條件下,以均方誤差計(jì)算截尾誤差最小B、在經(jīng)主分量分解后,協(xié)方差矩陣成為對(duì)角矩陣C、主分量分析就是K-L變換D、主分量是通過求協(xié)方差矩陣的特征值得到答案:C107.下列不能作為數(shù)據(jù)科學(xué)數(shù)據(jù)源的是()。A、醫(yī)院里的病歷、檢查、診斷等與健康相關(guān)的數(shù)據(jù)B、物聯(lián)網(wǎng)中涉及設(shè)備運(yùn)行情況的日志數(shù)據(jù)C、金融領(lǐng)域客戶的借款記錄以及信用情況D、個(gè)人電腦中用于備忘的日記答案:D108.對(duì)于SVM分類算法,待分樣本集中的大部分樣本不是支持向量,下列說法正確的是()。A、需要將這些樣本全部強(qiáng)制轉(zhuǎn)換為支持向量B、需要將這些樣本中可以轉(zhuǎn)化的樣本轉(zhuǎn)換為支持向量,不能轉(zhuǎn)換的直接刪除C、移去或者減少這些樣本對(duì)分類結(jié)果沒有影響D、以上都不對(duì)答案:C109.ndarry是一個(gè)通用的()數(shù)據(jù)容器。A、單維同類;B、單維多類;C、多維同類;D、多維多類;答案:C110.下列哪個(gè)()不是scipy.stats模塊中的功能()。A、連續(xù)性分布B、線性方程求解C、離散型分布D、核密度估計(jì)答案:B111.scipy中,線性模塊是以下哪個(gè)()模塊()。A、fftpackB、signalC、linalgD、ndimage答案:C112.Numpy中,利用函數(shù)自動(dòng)創(chuàng)建數(shù)組不包括以下哪個(gè)的函數(shù)是()。A、range)B、ones)C、linspace)D、type)答案:D113.在matplotlib中,以下說法正確的是()。A、散點(diǎn)圖不能在子圖中繪制B、散點(diǎn)圖的x軸刻度必須為數(shù)值C、折線圖可以用作查看特征間的趨勢關(guān)系D、箱線圖可以用來查看特征間的相關(guān)關(guān)系答案:C114.如何通過代理服務(wù)器進(jìn)行爬蟲的方法是()。A、個(gè)人發(fā)送訪問請(qǐng)求到代理服務(wù)器,代理服務(wù)器轉(zhuǎn)發(fā)到網(wǎng)站,網(wǎng)站反饋給個(gè)人B、個(gè)人發(fā)送訪問請(qǐng)求到網(wǎng)站,網(wǎng)站反饋給個(gè)人,并備份訪問記錄到代理服務(wù)器C、個(gè)人發(fā)送訪問請(qǐng)求到代理服務(wù)器,代理服務(wù)器轉(zhuǎn)發(fā)到網(wǎng)站,網(wǎng)站反饋給代理服務(wù)器,代理服務(wù)器再發(fā)送給個(gè)人D、個(gè)人發(fā)送訪問請(qǐng)求到網(wǎng)站,網(wǎng)站反饋給代理服務(wù)器,個(gè)人再訪問代理服務(wù)器獲取網(wǎng)頁信息答案:C115.多分類學(xué)習(xí)中,最經(jīng)典的三種拆分策略不包括()。A、一對(duì)一B、一對(duì)其余C、一對(duì)多D、多對(duì)多答案:A116.已知數(shù)組a=np.array([[0,0,0],[10,10,10],[20,20,20],[30,30,30]])A、[[1,2,3],[10,10,10],[20,20,20],[30,30,30]]B、[[1,2,3],[0,0,0],[10,10,10],[20,20,20],[30,30,30]]C、[[1,2,3],[11,12,13],[21,22,23],[31,32,33]]D、無法計(jì)算答案:C117.使用pyplot.plot畫圖時(shí),x,、y的參數(shù)的值的數(shù)據(jù)類型是()。A、charB、floatC、arrayD、ataFrame答案:C118.運(yùn)行下面的代碼,輸出結(jié)果是()。A、2B、6C、(2,3)D、(3,2)答案:B119.關(guān)于數(shù)據(jù)相關(guān)性,以下說法錯(cuò)誤的是()。A、相關(guān)性體現(xiàn)了大數(shù)據(jù)的靈魂B、相關(guān)性思維實(shí)現(xiàn)了從“為什么”到“是什么”的思維轉(zhuǎn)變C、相關(guān)性關(guān)注事物的因果關(guān)系D、相關(guān)性關(guān)注事物的相關(guān)關(guān)系答案:C120.關(guān)于Logistic回歸和SVM的描述,不正確的是()。A、Logistic回歸本質(zhì)上是一種根據(jù)樣本對(duì)權(quán)值進(jìn)行極大似然估計(jì)的方法,用先驗(yàn)概率的乘積代替后驗(yàn)概率B、Logistic回歸的輸出就是樣本屬于正類別的概率C、SVM的目標(biāo)是找到使得訓(xùn)練數(shù)據(jù)盡可能分開且分類間隔最大的超平面,屬于結(jié)構(gòu)風(fēng)險(xiǎn)最小化D、SVM可以通過正則化系數(shù)控制模型的復(fù)雜度,避免過擬合答案:A121.下列不屬于數(shù)據(jù)科學(xué)開源工具的是()。A、MapReduceB、ERPC、HadoopD、Spark答案:B122.關(guān)于python的類,說法錯(cuò)誤的是()。A、類的實(shí)例方法必須創(chuàng)建對(duì)象后才可以調(diào)用B、類的實(shí)例方法必須創(chuàng)建對(duì)象前才可以調(diào)用C、類的類方法可以用對(duì)象和類名來調(diào)用D、類的靜態(tài)屬性可以用類名和對(duì)象來調(diào)用答案:B123.長短時(shí)記憶網(wǎng)絡(luò)屬于一種()。A、全連接神經(jīng)網(wǎng)絡(luò)B、門控RNNC、BP神經(jīng)網(wǎng)絡(luò)D、雙向RNN答案:B124.以下代碼的輸出結(jié)果為()。A、[[306570][809510][509060]]B、65C、[50.90.60.]D、[65.80.60.]答案:D125.讀代碼,請(qǐng)寫出程序正確的答案()。A、結(jié)果:1到100之和為:5000B、結(jié)果:1到100之和為:0C、結(jié)果:1到100之和為:2050D、結(jié)果:1到100之和為:5020答案:B126.Numpy中對(duì)數(shù)組進(jìn)行轉(zhuǎn)置的函數(shù)是哪個(gè)()。A、transpose)B、rollaxis)C、swapaxes)D、tan)答案:A127.()不屬于CRF模型對(duì)于HMM和MEMM模型的優(yōu)勢。A、特征靈活B、速度快C、可容納較多上下文信息D、全局最優(yōu)答案:B128.我們建立一個(gè)5000個(gè)特征,100萬數(shù)據(jù)的機(jī)器學(xué)習(xí)模型.我們怎么有效地應(yīng)對(duì)這樣的大數(shù)據(jù)訓(xùn)練()。A、我們隨機(jī)抽取一些樣本,在這些少量樣本之上訓(xùn)練B、我們可以試用在線機(jī)器學(xué)習(xí)算法C、我們應(yīng)用PCA算法降維,減少特征數(shù)D、以上答案都正確答案:D129.Scikit-Learn中StandardScaler是將特征數(shù)據(jù)的分布調(diào)整成(),也就是使得數(shù)據(jù)的均值為0,方差為1。A、正態(tài)分布B、泊松分布C、均勻分布D、二項(xiàng)分布答案:A130.sklearn中對(duì)模型進(jìn)行選擇主要是依靠()模塊。A、decompositionB、model_selectionC、linear_modelD、mixture答案:B131.如果x=5.5,則表達(dá)式x>0andx==int(x)的運(yùn)算結(jié)果為;表達(dá)式x>0orx==int(x)的運(yùn)算結(jié)果為()。A、TrueFalseB、FalseTrueC、TrueTrueD、FalseFalse答案:B132.為了降低MapReduce兩個(gè)階段之間的數(shù)據(jù)傳遞量,一般采用()函數(shù)對(duì)map階段的輸出進(jìn)行處理。A、sort()B、combiner()C、join()D、gather()答案:B133.決策樹中,同一路徑上的所有屬性之間是()關(guān)系。A、因果B、相關(guān)C、邏輯或D、邏輯與答案:D134.數(shù)據(jù)可視化是利用計(jì)算機(jī)圖形學(xué)和(),將數(shù)據(jù)轉(zhuǎn)換成圖形或圖像在屏幕上顯示出來,并進(jìn)行交互處理的理論、方法和技術(shù)。A、視覺處理技術(shù)B、視頻處理技術(shù)C、圖像處理技術(shù)D、圖片處理技術(shù)答案:C135.以下關(guān)于情感分析說法錯(cuò)誤的是()。A、情感分類是一個(gè)領(lǐng)域相關(guān)的問題B、情感分類往往牽涉樣本的正負(fù)類別分布不平衡的問題C、情感分析屬于nlp范圍D、以上答案都不正確答案:D136.()不適合使用機(jī)器學(xué)習(xí)方法解決。A、判斷電子郵件是否是垃圾郵件B、判斷給定的圖中是否有環(huán)C、判斷是否給指定用戶辦理信用卡D、對(duì)滴滴拼車乘客分簇答案:B137.以下不屬于Python內(nèi)置模塊的是()。A、sysB、jsonC、osD、image答案:D138.線性判別分析在二分類問題上也稱為()。A、線性回歸B、對(duì)數(shù)幾率回歸C、Fisher判別分析D、主成分分析答案:C139.下列方法中,能夠返回某個(gè)子串在字符串中出現(xiàn)次數(shù)的是()。A、lengthB、indexC、ountD、find答案:C140.關(guān)于Python內(nèi)存管理,下列說法錯(cuò)誤的是哪項(xiàng)()。A、變量不必事先聲明B、變量無須先創(chuàng)建和賦值而直接使用C、變量無須指定類型D、可以使用del釋放資源答案:B141.有研究發(fā)現(xiàn)“頁面的顯示速度每延遲1s,網(wǎng)站訪問量就會(huì)降低11%,從而導(dǎo)致營業(yè)額或者注冊量減少7%,顧客滿意度下降16%”。該項(xiàng)研究表明了()在數(shù)據(jù)產(chǎn)品開發(fā)中的重要性。A、查全率B、用戶體驗(yàn)C、數(shù)據(jù)可視化D、查準(zhǔn)率答案:B142.當(dāng)()時(shí),可以不考慮RDD序列化處理。A、完成成本比較高的操作后B、執(zhí)行容易失敗的操作之前C、RDD被重復(fù)使用D、實(shí)時(shí)性要求高答案:D143.卷積神經(jīng)網(wǎng)絡(luò)中每層卷積層(Convolutionallayer)由若干卷積單元組成,每個(gè)卷積單元的參數(shù)都是通過反向傳播算法最佳化得到,其作用是()。A、增強(qiáng)圖像B、簡化圖像C、特征提取D、圖像處理答案:C144.下列語句中,在python3中合法的語句為()。A、printHello,World!B、print'Hello,World!'C、print('Hello,World!')D、print"Hello,World!"答案:C145.以下內(nèi)容符合物體識(shí)別任務(wù)的是()。A、不能對(duì)圖像進(jìn)行壓縮或剪裁B、遵守誤差最小準(zhǔn)則和最佳近似準(zhǔn)則C、可以不指定分類的類別數(shù)量D、事先給定樣本的分布特征答案:B146.()會(huì)發(fā)生權(quán)重共享。A、卷積神經(jīng)網(wǎng)絡(luò)B、循環(huán)神經(jīng)網(wǎng)絡(luò)C、全連接神經(jīng)網(wǎng)絡(luò)D、選項(xiàng)A和B答案:D147.概率模型的訓(xùn)練過程就是()過程。A、分類B、聚類C、參數(shù)估計(jì)D、參數(shù)選擇答案:C148.在一個(gè)線性回歸問題中,我們使用R平方(R-Squared)來判斷擬合度。此時(shí),如果增加一個(gè)特征,模型不變,則下面說法正確的是()。A、如果R-Squared增加,則這個(gè)特征有意義B、如果R-Squared減小,則這個(gè)特征沒有意義C、僅看R-Squared單一變量,無法確定這個(gè)特征是否有意義D、以上說法都不對(duì)答案:C149.一元線性回歸方程y=0.7+0.82x,判定系數(shù)等于0.64,則x與y的相關(guān)系數(shù)為()。A、0.82B、0.64C、0.8D、0.7答案:C150.以下算法中不屬于基于深度學(xué)習(xí)的圖像分割算法是()。A、FCNB、DeeplabC、Mask-RCNND、KNN答案:D151.檢測一元正態(tài)分布中的離群點(diǎn),屬于異常檢測中的基于()的離群點(diǎn)檢測。A、統(tǒng)計(jì)方法B、鄰近度C、密度D、聚類技術(shù)答案:A152.假設(shè)有n組數(shù)據(jù)集,每組數(shù)據(jù)集中,x的平均值都是9,x的方差都是11,y的平均值都是7.50,x與y的相關(guān)系數(shù)都是0.816,擬合的線性回歸方程都是y=3.00+0.500x。那么這n組數(shù)據(jù)集()。A、一樣B、不一樣C、無法確定是否一樣D、-答案:C153.MapReduce里面的query、sort和limit等都是針對(duì)()的操作。A、map()之前B、reduce()之前C、reduce()之后D、finalize()之后答案:A154.建立一個(gè)詞典[Alex,wants,to,go,play,football,shopping],下面的句子:Alexwantstogotoplayfootball可以用向量表示為()。A、[1,1,2,1,1,1,0]B、[1,1,2,1,1,1]C、[1,1,1,1,1,1,0]D、[1,1,1,1,1,1,1]答案:A155.執(zhí)行如下代碼:A、time庫是Python的標(biāo)準(zhǔn)庫;B、可使用time.ctime),顯示為更可讀的形式;C、time.sleep(5)推遲調(diào)用線程的運(yùn)行,單位為毫秒;D、輸出自1970年1月1日00:00:00AM以來的秒數(shù);答案:C156.假設(shè)函數(shù)中不包括global保留字,對(duì)于改變參數(shù)值的方法,以下選項(xiàng)中錯(cuò)誤的是()。A、參數(shù)是列表類型時(shí),改變原參數(shù)的值B、參數(shù)的值是否改變與函數(shù)中對(duì)變量的操作有關(guān),與參數(shù)類型無關(guān)C、參數(shù)是整數(shù)類型時(shí),不改變原參數(shù)的值D、參數(shù)是組合類型(可變對(duì)象)時(shí),改變原參數(shù)的值答案:B157.下列關(guān)于文本分類的說法不正確的是()。A、文本分類是指按照預(yù)先定義的主題類別,由計(jì)算機(jī)自動(dòng)地為文檔集合中的每個(gè)文檔確定一個(gè)類別B、文本分類系統(tǒng)大致可分為基于知識(shí)工程的分類系統(tǒng)和基于機(jī)器學(xué)習(xí)的分類系統(tǒng)C、文本的向量形式一般基于詞袋模型構(gòu)建,該模型考慮了文本詞語的行文順序D、構(gòu)建文本的向量形式可以歸結(jié)為文本的特征選擇與特征權(quán)重計(jì)算兩個(gè)步驟答案:C158.可用信息增益來進(jìn)行決策樹的()。A、樹高B、葉子結(jié)點(diǎn)數(shù)C、總結(jié)點(diǎn)數(shù)D、劃分屬性選擇答案:D159.下列算法中,不屬于外推法的是()。A、移動(dòng)平均法B、回歸分析法C、指數(shù)平滑法D、季節(jié)指數(shù)法答案:B160.以下關(guān)于深度學(xué)習(xí)框架的描述,正確的是()。A、Tensorflow是一款使用C++語言開發(fā)的開源數(shù)學(xué)計(jì)算軟件B、Caffe對(duì)于卷積網(wǎng)絡(luò)的支持特別好,同時(shí)提供的C++接口,也提供了matlab接口和python接口C、PyTorch的前身便是Torch,其底層和Torch框架一樣,但是使用Python重新寫了很多內(nèi)容D、以上答案都正確答案:D161.在機(jī)器學(xué)習(xí)中,不屬于常用的沖突消解策略是()。A、投票法B、排序法C、元規(guī)則法D、加權(quán)法答案:D162.如果要將讀寫位置移動(dòng)到文件開頭,需要使用的命令是()。A、closeB、seek(0)C、truncateD、write('stuff')答案:B163.將一副圖像進(jìn)行分割后,分割出的區(qū)域彼此之間()重疊。A、可以B、不可以C、根據(jù)任務(wù)需要確定是否可以D、根據(jù)分割方法確定是否可以答案:B164.在深度學(xué)習(xí)中,下列對(duì)于sigmoid函數(shù)的說法,錯(cuò)誤的是()。A、存在梯度爆炸的問題B、不是關(guān)于原點(diǎn)對(duì)稱C、計(jì)算exp比較耗時(shí)D、存在梯度消失的問題答案:A165.Spark的劣勢是()。A、運(yùn)算速度快B、業(yè)務(wù)實(shí)現(xiàn)需要較少代碼C、提供很多現(xiàn)成函數(shù)D、需要更多機(jī)器內(nèi)存答案:D166.矩陣相減使用以下哪種的函數(shù)是()。A、np.add)B、np.subtract)C、np.multiply)D、np.divide)答案:B167.()算法要求基學(xué)習(xí)器能對(duì)特定的數(shù)據(jù)分布進(jìn)行學(xué)習(xí),在訓(xùn)練過程的每一輪中,根據(jù)樣本分布為每個(gè)訓(xùn)練樣本重新賦予一個(gè)權(quán)重。A、BoostingB、支持向量機(jī)C、貝葉斯分類器D、神經(jīng)網(wǎng)絡(luò)答案:A168.以P(w)表示詞條w的概率,假設(shè)已知P(南京)=0.8,P(市長)=0.6,P(江大橋)=0.4;P(南京市)=0.3,P(長江大橋)=0.5。如果假設(shè)前后兩個(gè)詞的出現(xiàn)是獨(dú)立的,那么分詞結(jié)果就是()。A、南京市×長江×大橋B、南京*市長*江大橋C、南京市長*江大橋D、南京市*長江大橋答案:B169.與生成方法、半監(jiān)督SVM、圖半監(jiān)督學(xué)習(xí)等基于單學(xué)習(xí)機(jī)器利用未標(biāo)記數(shù)據(jù)不同,基于分歧的方法(disagreement-basedmethods)使用多學(xué)習(xí)器,而學(xué)習(xí)器之間的分歧(disagreement)對(duì)未標(biāo)記數(shù)據(jù)的利用至關(guān)重要。()是此類方法的重要代表。A、協(xié)同訓(xùn)練B、組合訓(xùn)練C、配合訓(xùn)練D、陪同訓(xùn)練答案:A170.在深度學(xué)習(xí)中,我們經(jīng)常會(huì)遇到收斂到localminimum,下面不屬于解決localminimum問題的方法是()。A、隨機(jī)梯度下降B、設(shè)置MomentumC、設(shè)置不同初始值D、增大batchsize答案:D171.參數(shù)估計(jì)又可分為()和區(qū)間估計(jì)。A、線型估計(jì)B、點(diǎn)估計(jì)C、回歸估計(jì)D、二維分析答案:B172.關(guān)于臟數(shù)據(jù)和亂數(shù)據(jù)的區(qū)分,以下哪種不屬于臟數(shù)據(jù)()。A、含有缺失數(shù)據(jù)B、冗余數(shù)據(jù)C、噪聲數(shù)據(jù)D、不規(guī)則形態(tài)數(shù)據(jù)答案:D173.從數(shù)據(jù)到智慧的轉(zhuǎn)換依次遞進(jìn)過程是()。A、數(shù)據(jù)、知識(shí)、信息、理解、智慧B、數(shù)據(jù)、信息、理解、知識(shí)、智慧C、數(shù)據(jù)、信息、知識(shí)、理解、智慧D、數(shù)據(jù)、理解、信息、知識(shí)、智慧答案:C174.關(guān)于數(shù)據(jù)分析,下列說法正確的是()。A、描述性分析和預(yù)測性分析是診斷性分析的基礎(chǔ)B、診斷性分析是對(duì)規(guī)范性分析的進(jìn)一步理解C、預(yù)測性分析是規(guī)范性分析的基礎(chǔ)D、規(guī)范性分析是數(shù)據(jù)分析的最高階段,可以直接產(chǎn)生產(chǎn)業(yè)價(jià)值答案:C175.()不是Spark服務(wù)層的功能。A、SQL查詢B、實(shí)時(shí)處理C、機(jī)器學(xué)習(xí)D、內(nèi)存計(jì)算答案:D176.可分解為偏差、方差與噪聲之和的是()。A、訓(xùn)練誤差(trainingerror)B、經(jīng)驗(yàn)誤差(empiricalerror)C、均方誤差(meansquarederror)D、泛化誤差(generalizationerror)答案:D177.下列哪種業(yè)務(wù)場景中,不能直接使用Reducer充當(dāng)Combiner使用()A、sum求和B、max求最大值C、ount求計(jì)數(shù)D、avg求平均答案:D178.一個(gè)分布式應(yīng)用程序協(xié)調(diào)服務(wù),分布式應(yīng)用程序可以基于它實(shí)現(xiàn)同步服務(wù),配置維護(hù)和命名服務(wù)等的工具是()。A、FlumeB、ZookeeperC、StormD、SparkStreaming答案:B179.循環(huán)神經(jīng)網(wǎng)絡(luò)適合處理的數(shù)據(jù)是()。A、節(jié)點(diǎn)數(shù)據(jù)B、序列數(shù)據(jù)C、結(jié)構(gòu)化數(shù)據(jù)D、圖像數(shù)據(jù)答案:B180.當(dāng)不知道數(shù)據(jù)所帶標(biāo)簽時(shí),可以使用()促使帶同類標(biāo)簽的數(shù)據(jù)與帶其他標(biāo)簽的數(shù)據(jù)相分離。A、分類B、聚類C、關(guān)聯(lián)分析D、隱馬爾可夫鏈答案:B181.下列關(guān)于神經(jīng)網(wǎng)絡(luò)的說法中:①增加神經(jīng)網(wǎng)絡(luò)層數(shù),可能會(huì)增加測試數(shù)據(jù)集的分類錯(cuò)誤率;②減少神經(jīng)網(wǎng)絡(luò)層數(shù),總是能減小測試數(shù)據(jù)集的分類錯(cuò)誤率;③增加神經(jīng)網(wǎng)絡(luò)層數(shù),總是能減小訓(xùn)練數(shù)據(jù)集的分類錯(cuò)誤率,正確的是()。A、①B、①③C、①②D、②答案:A182.所有預(yù)測模型在廣義上都可稱為一個(gè)或一組()。A、公式B、邏輯C、命題D、規(guī)則答案:D183.假如我們使用非線性可分的SVM目標(biāo)函數(shù)作為最優(yōu)化對(duì)象,我們怎么保證模型線性可分()。A、設(shè)C=1B、設(shè)C=0C、設(shè)C為無窮大D、以上答案都不正確答案:C184.傳統(tǒng)目標(biāo)檢測流程包括()。A、區(qū)域選擇B、特征提取C、分類器分類D、以上答案都正確答案:D185.Python中statsmodel庫和()庫關(guān)系密切。A、NumpyB、ScipyC、jiebaD、Pandaspandas答案:D186.中文同義詞替換時(shí),常用到Word2Vec,以下說法錯(cuò)誤的是()。A、Word2Vec基于概率統(tǒng)計(jì)B、Word2Vec結(jié)果符合當(dāng)前預(yù)料環(huán)境C、Word2Vec得到的都是語義上的同義詞D、Word2Vec受限于訓(xùn)練語料的數(shù)量和質(zhì)量答案:C187.執(zhí)行以下代碼段時(shí),輸出為()。A、['honda','yamaha','suzuki']B、['yamaha','suzuki','ducati']C、['honda','yamaha','suzuki','ducati']D、['honda','suzuki','ducati']答案:D188.大數(shù)據(jù)的4V特性不包括()。A、Volume(大量)B、Velocity(高速)C、Visual(可視)D、Variety(多樣)答案:C189.()操作屬于預(yù)剪枝。A、信息增益B、計(jì)算最好的特征切分點(diǎn)C、限制樹模型的深度D、可視化樹模型答案:C190.HBase作為數(shù)據(jù)存儲(chǔ)組件封裝于大數(shù)據(jù)平臺(tái),用于()存儲(chǔ)。A、關(guān)系型數(shù)據(jù)庫B、分布式文件C、非關(guān)系型數(shù)據(jù)庫D、列式存儲(chǔ)答案:C191.構(gòu)造方法的作用是()。A、一般成員方法B、類的初始化C、對(duì)象的初始化D、對(duì)象的建立答案:C192.()在訓(xùn)練的每一輪都要檢查當(dāng)前生成的基學(xué)習(xí)器是否滿足基本條件。A、支持向量機(jī)B、oosting算法C、貝葉斯分類器D、Bagging算法答案:B193.以下不屬于基于區(qū)域的圖像分割方法的是()。A、區(qū)域生長法B、分水嶺算法C、大津算法D、基于圖論的分割算法答案:C194.下列關(guān)于RNN的說法,正確的是()。A、RNN可以應(yīng)用在NLP領(lǐng)域B、LSTM是RNN的一個(gè)變種C、在RNN中一個(gè)序列當(dāng)前的輸出與前面的輸出也有關(guān)D、以上答案都正確答案:D195.以下分割方法中不屬于區(qū)域算法的是()。A、分裂合并B、閾值分割C、區(qū)域生長D、邊緣檢測答案:D196.有數(shù)組arr=Numpy.array([1,,2,,3,,4]),執(zhí)行arr.dtype后輸出結(jié)果為()。A、int32B、int64C、float32D、float64答案:A197.一監(jiān)獄人臉識(shí)別準(zhǔn)入系統(tǒng)用來識(shí)別待進(jìn)入人員的身份,此系統(tǒng)識(shí)別獄警、小偷、送餐員、其他人員4種不同人員。下列學(xué)習(xí)方法最適合此種應(yīng)用需求的是()。A、二分類問題B、層次聚類問題C、多分類問題D、回歸問題答案:C198.在比較模型的擬合效果時(shí),甲、乙、丙三個(gè)模型的相關(guān)指數(shù)R2的值分別約為0.71、0.85、0.90,則擬合效果較好的模型是()。A、甲B、乙C、丙D、效果一樣答案:C199.常用的數(shù)據(jù)歸約方法可以分為()。A、維歸約、數(shù)據(jù)壓縮B、維歸約、參數(shù)歸約C、維歸約、值歸約D、數(shù)據(jù)壓縮、值歸約答案:C200.對(duì)a=np.array([[1,2,3],[4,5,6]]),以下操作會(huì)改變數(shù)組本身形狀的是()。A、TB、a.reshape(2,3)C、a.ravel)D、a.resize)答案:D201.()不是長短時(shí)記憶神經(jīng)網(wǎng)絡(luò)三個(gè)門中的一個(gè)門。A、輸入門B、輸出門C、遺忘門D、進(jìn)化門答案:D202.以下代碼的輸出結(jié)果為()。A、[[1,2],[3,4],[1,2],[3,4]]B、[[1,2,3,4],[1,2,3,4]]C、[[1,2],[3,4]]D、[1,2,3,4,1,2,3,4]答案:A203.以下關(guān)于DNN說法不正確的是()。A、層數(shù)多B、抽象能力強(qiáng)C、模擬更復(fù)雜模型D、廣義上包含CNN、DBN、SVM等答案:D204.下列判斷錯(cuò)誤的是()。A、XML數(shù)據(jù)屬于半結(jié)構(gòu)化數(shù)據(jù)B、JSON文件屬于非結(jié)構(gòu)化數(shù)據(jù)C、PPT文件屬于非結(jié)構(gòu)化數(shù)據(jù)D、音視頻文件屬于非結(jié)構(gòu)化數(shù)據(jù)答案:B205.神經(jīng)網(wǎng)絡(luò)感知機(jī)只有()神經(jīng)元進(jìn)行激活函數(shù)處理,即只擁有一層功能神經(jīng)元。A、輸出層B、輸入層C、感知層D、網(wǎng)絡(luò)層答案:A206.以下()不屬于廣義上的數(shù)據(jù)可視化技術(shù)。A、類別可視化B、科學(xué)可視化C、信息可視化D、可視分析學(xué)答案:A207.下列選項(xiàng)中,會(huì)輸出1,2,3三個(gè)數(shù)字的是()。A、foriinrange(3):print(i)B、foriinrange(2):print(i+1)C、a_list=[0,1,2]foriina_list:print(i+1)D、i=1whilei<3:prirt(i)i=i+1答案:C208.標(biāo)準(zhǔn)正態(tài)分布的均數(shù)與標(biāo)準(zhǔn)差是()。A、0,1B、1,0C、0,0D、1,1答案:A209.輸入圖片大小為37×37,經(jīng)過第一層卷積(thenumberoffilters=25,kernelsize=5×5,padding=valid,stride=1)與池化層maxpooling(kernelsize=3×3,padding=valid),輸出特征圖大小為()。A、10×10B、11×11C、12×12D、13×13答案:B210.對(duì)于隨機(jī)森林和GBDT,下面說法正確的是()。A、在隨機(jī)森林的單個(gè)樹中,樹和樹之間是有依賴的,而GBDT中的單個(gè)樹之間是沒有依賴的B、這兩個(gè)模型都使用隨機(jī)特征子集,來生成許多單個(gè)的樹C、我們可以并行地生成GBDT單個(gè)樹,因?yàn)樗鼈冎g是沒有依賴的D、GBDT訓(xùn)練模型的表現(xiàn)總是比隨機(jī)森林好答案:B211.()不屬于聚類性能度量外部指標(biāo)。A、Jaccard系數(shù)B、FM系數(shù)C、Rand指數(shù)D、B指數(shù)答案:D212.繪圖是如何通過()為項(xiàng)目設(shè)置matplotlib參數(shù)()。A、rc)B、sci)C、axes)D、sca)答案:A213.以下選項(xiàng)中,不是Python對(duì)文件的打開模式的是()。A、'w'B、'+'C、'c'D、'r'答案:C214.()是交叉驗(yàn)證法的一種特例。A、自助法B、留一法C、交叉驗(yàn)證法D、錯(cuò)誤率分析答案:B215.圖像與灰度直方圖的對(duì)應(yīng)關(guān)系為()。A、一一對(duì)應(yīng)B、一對(duì)多C、多對(duì)一D、以上答案都正確答案:C216.關(guān)于函數(shù)的參數(shù),以下選項(xiàng)中描述錯(cuò)誤的是()。A、可選參數(shù)可以定義在非可選參數(shù)的前面B、一個(gè)元組可以傳遞給帶有星號(hào)的可變參數(shù)C、在定義函數(shù)時(shí),可以設(shè)計(jì)可變數(shù)量參數(shù),通過在參數(shù)前增加星號(hào)(*)實(shí)現(xiàn)D、在定義函數(shù)時(shí),如果有些參數(shù)存在默認(rèn)值,可以在定義函數(shù)時(shí)直接為這些參數(shù)指定默認(rèn)值答案:A217.如果字符串中有*需要匹配,需要輸入的正則表達(dá)式為()。A、\*B、\\*C、*D、(*)答案:A218.單獨(dú)使用多層索引時(shí),()。A、最外層和最里層的索引都可以單獨(dú)使用B、只有最外層的索引可以單獨(dú)使用C、不能單獨(dú)使用多層索引D、只有最里層的索引可以單獨(dú)使用答案:B219.一組數(shù)據(jù)中出現(xiàn)最多的變量值叫作做()。A、最大值B、平均值C、中位數(shù)D、眾數(shù)答案:D220.關(guān)于Spark的說法中,()是錯(cuò)誤的。A、采用內(nèi)存計(jì)算模式B、可利用多種語言編程C、主要用于批處理D、可進(jìn)行map()操作答案:C221.在TF-IDF算法中,在計(jì)算完詞頻與逆文檔頻率后,將二者()后得到最終的結(jié)果。A、相加B、相減C、相乘D、相除答案:C222.深度學(xué)習(xí)是當(dāng)前很熱門的機(jī)器學(xué)習(xí)算法,深度學(xué)習(xí)涉及大量的矩陣相乘,現(xiàn)在需要計(jì)算三個(gè)稠密矩陣A、B、C的乘積ABC,假設(shè)三個(gè)矩陣的尺寸分別為m×n,n×p,p×q,且m<nA、(AB)CB、AC(B)C、A(BC)D、所有效率都相同答案:A223.對(duì)文本數(shù)據(jù)處理,通常采用()核函數(shù)。A、多項(xiàng)式B、SigmoidC、線性D、拉普拉斯答案:C224.Hive的數(shù)據(jù)最終存儲(chǔ)在()。A、HDFSB、HBaseC、RDBMSD、MetaStore答案:A225.matplotlib中的調(diào)用堆積折線圖的函數(shù)是什么()。A、step)B、stackplot)C、plusplot)D、hist)答案:B226.若X的值為1~~11(包含1、11),要用scipy輸出標(biāo)準(zhǔn)正態(tài)分布的概率密度函數(shù)在X=5處的值,下面哪個(gè)是正確的是()。A、scipy.stats.norm(loc=0,scale=1).pmf(5)B、scipy.stats.binorm(loc=0,scale=1).pdf(5)C、scipy.stats.binorm(loc=0,scale=1).pmf(5)D、scipy.stats.norm(loc=0,scale=1).pdf(5)答案:D227.()是以樣本統(tǒng)計(jì)量作為未知總體參數(shù)的估計(jì)量,并通過對(duì)樣本單位的實(shí)際觀察取得樣本數(shù)據(jù),計(jì)算樣本統(tǒng)計(jì)量的取值作為被估計(jì)參數(shù)的估計(jì)值。A、參數(shù)估計(jì)B、邏輯分析C、方差分析D、回歸分析答案:A228.數(shù)組允許批量計(jì)算而無須任何for循環(huán),這種特性叫()。A、矩陣化B、便捷化C、批量化D、矢失量化答案:D229.關(guān)于多層前饋神經(jīng)網(wǎng)絡(luò)的描述,錯(cuò)誤的是()。A、輸出層與輸入層之間包含隱含層,且隱含層和輸出層都擁有激活函數(shù)的神經(jīng)元B、神經(jīng)元之間存在同層連接以及跨層連接C、輸入層僅僅是接收輸入,不進(jìn)行函數(shù)處理D、每層神經(jīng)元上一層與下一層全互連答案:B230.建立一個(gè)詞典[Alex,wants,to,go,play,football,shopping],下面的句子:Alexwantstogotoplayfootball可以用向量表示為()。A、[1,1,2,1,1,1,0]B、[1,1,2,1,1,1]C、[1,1,1,1,1,1,0]D、[1,1,1,1,1,1,1]答案:A231.考察一個(gè)由三個(gè)卷積層組成的CNN:kernel=3×3,stride=2,padding=SAME。最低層輸出100個(gè)特征映射(featuremap),中間層200個(gè)特征映射,最高層400個(gè)特征映射。輸入是200×300的RGB圖片,則總參數(shù)的數(shù)量是()。A、903400B、2800C、180200D、720400答案:A232.若A與B是任意的兩個(gè)事件,且P(AB)=P(A)·P(B),則可稱事件A與B()。A、等價(jià)B、互不相容C、相互獨(dú)立D、相互對(duì)立答案:C233.相關(guān)關(guān)系是一種與函數(shù)關(guān)系區(qū)別的非確定性關(guān)系,而相關(guān)分析就是研究事物或現(xiàn)象之間是否存在這種非確定性關(guān)系的統(tǒng)計(jì)方法,以下不屬于相關(guān)性分析方法的是()。A、Pearson相關(guān)系數(shù)B、Spearman秩相關(guān)系數(shù)C、Kendall相關(guān)系數(shù)D、傅里葉系數(shù)答案:D234.不屬于判別式模型的是()。A、決策樹B、P神經(jīng)網(wǎng)絡(luò)C、支持向量機(jī)D、貝葉斯答案:D235.在大規(guī)模的語料中,挖掘詞的相關(guān)性是一個(gè)重要的問題。以下不能用于確定兩個(gè)詞的相關(guān)性的是()。A、互信息B、最大熵C、卡方檢驗(yàn)D、最大似然比答案:B236.Python中用()快捷鍵表示運(yùn)行當(dāng)前程序。A、Ctrl+F10B、Ctrl+Alt+F10C、Shift+F10D、Ctrl+Shift+F10答案:D237.對(duì)模型進(jìn)行超參數(shù)優(yōu)化,詳盡搜索指定參數(shù)的估計(jì)值使用以下哪種()方法()。A、ParameterGrid)B、ParameterSler)C、GridSearchCV)D、RandomizedSearchCV)答案:C238.scipy.stats中,()表示二項(xiàng)分布。A、gammaB、inomC、uniformD、rayleigh答案:B239.對(duì)于一個(gè)圖像識(shí)別問題(在一張照片里找出一只貓),()可以更好地解決這個(gè)問題。A、循環(huán)神經(jīng)網(wǎng)絡(luò)B、感知機(jī)C、多層感知機(jī)D、卷積神經(jīng)網(wǎng)絡(luò)答案:D240.下面關(guān)于詞袋模型的說法,錯(cuò)誤的是()。A、詞袋模型使用一個(gè)多重集對(duì)文本中出現(xiàn)的單詞進(jìn)行編碼B、詞袋模型不考慮詞語原本在句子中的順序C、詞袋模型可以應(yīng)用于文檔分類和檢索,同時(shí)受到編碼信息的限制D、詞袋模型產(chǎn)生的靈感來源于包含類似單詞的文檔經(jīng)常有相似的含義答案:C241.()是Spark的核心數(shù)據(jù)結(jié)構(gòu)。A、彈性分布式數(shù)據(jù)集B、列表C、元組D、字典答案:A242.以下選項(xiàng)中Python用于異常處理結(jié)構(gòu)中用來捕獲特定類型的異常的保留字是()。A、exceptB、doC、passD、while答案:A243.Spark中引入RDD概念的目的是()。A、數(shù)據(jù)存儲(chǔ)B、數(shù)據(jù)查重C、提升容錯(cuò)能力D、增強(qiáng)數(shù)據(jù)一致性答案:C244.如果規(guī)則集R中不存在兩條規(guī)則被同一條記錄觸發(fā),則稱規(guī)則集R中的規(guī)則為()。A、無序規(guī)則B、窮舉規(guī)則C、互斥規(guī)則D、有序規(guī)則答案:C245.對(duì)于兩次調(diào)用文件的write方法,以下選項(xiàng)中描述正確的是()。A、連續(xù)寫入的數(shù)據(jù)之間無分隔符B、連續(xù)寫入的數(shù)據(jù)之間默認(rèn)采用換行分隔C、連續(xù)寫入的數(shù)據(jù)之間默認(rèn)采用空格分隔D、連續(xù)寫入的數(shù)據(jù)之間默認(rèn)采用逗號(hào)分隔答案:A246.type(1e6)的結(jié)果為()。A、<class'int'>B、<class'float'>C、<class'complex'>D、<class'bool'>答案:B247.Spark的()組件用于支持實(shí)時(shí)計(jì)算需求。A、SparkSQLB、SparkStreamingC、SparkGraphXD、SparkMLLib答案:B248.線性回歸算法主要在sklearn中的哪個(gè)()模塊中()。A、baseB、clusterC、linear_modelD、kernel_impute答案:C249.下面哪行代碼中最適合接受系統(tǒng)輸入的一個(gè)整數(shù)是()。A、num=input)B、num=input(“6”)C、num=int(input)D、num=float(input)答案:C250.數(shù)據(jù)銷毀環(huán)節(jié)的安全技術(shù)措施有通過軟件或物理方式保障磁盤中存儲(chǔ)數(shù)據(jù)的()、不可恢復(fù),如數(shù)據(jù)銷毀軟件、硬盤消磁機(jī)、硬盤粉碎機(jī)等。A、暫時(shí)隔離B、暫時(shí)刪除C、永久刪除D、不做處理答案:C251.詞袋模型中的文本向量每個(gè)元素表示該詞的()。A、頻率B、順序C、含義D、語義關(guān)系答案:A252.()不是專門用于可視化時(shí)間空間數(shù)據(jù)的技術(shù)。A、等高線圖B、餅圖C、曲面圖D、矢量場圖答案:B253.在方差分析中,()反映的是樣本數(shù)據(jù)與其組平均值的差異。A、總離差B、組間誤差C、抽樣誤差D、組內(nèi)誤差答案:D254.關(guān)聯(lián)規(guī)則的評(píng)價(jià)指標(biāo)是()。A、均方誤差、均方根誤差B、Kappa統(tǒng)計(jì)、顯著性檢驗(yàn)C、支持度、置信度D、平均絕對(duì)誤差、相對(duì)誤差答案:C255.以下描述中不屬于“規(guī)整數(shù)據(jù)(TidyData)”三個(gè)基本原則的是()。A、每一類觀察單元構(gòu)成一個(gè)關(guān)系(表)B、每個(gè)觀察占且僅占一行C、每個(gè)變量占且僅占一列D、每個(gè)觀察占且僅占一個(gè)關(guān)系(表)答案:D256.下列數(shù)據(jù)類型中,Numpy不支持以下哪種數(shù)據(jù)類型的是()。A、float32B、uint64C、boolD、byte答案:D257.以下()屬于數(shù)據(jù)可視化方法體系中的基礎(chǔ)方法。A、視覺編碼方法論B、視覺隱喻C、地理信息可視化D、時(shí)變數(shù)據(jù)可視化答案:B258.下列程序段n=1s=1whilen<5:s=s*nn=n+1Print(s)執(zhí)行后,輸出結(jié)果是()。n=1s=1whilen<5:s=s*nn=n+1Print(s)A、24B、10C、120D、15答案:A259.隨機(jī)試驗(yàn)所有可能出現(xiàn)的結(jié)果稱為()。A、基本事件B、樣本C、全部事件D、樣本空間答案:D260.()用于將非線性引入神經(jīng)網(wǎng)絡(luò),它會(huì)將值縮小到較小的范圍內(nèi)。A、損失函數(shù)B、優(yōu)化函數(shù)C、激活函數(shù)D、目標(biāo)函數(shù)答案:C261.下列方法中,能夠讓所有單詞的首字母變成大寫的方法是()。A、capitalizeB、titleC、upperD、Ijust答案:B262.下列關(guān)于大數(shù)據(jù)的分析理念的說法中,錯(cuò)誤的是()。A、在數(shù)據(jù)基礎(chǔ)上傾向于全體數(shù)據(jù)而不是抽樣數(shù)據(jù)B、在分析方法上更注重相關(guān)分析而不是因果分析C、在分析效果上更追求效率而不是絕對(duì)精確D、在數(shù)據(jù)規(guī)模上強(qiáng)調(diào)相對(duì)數(shù)據(jù)而不是絕對(duì)數(shù)據(jù)答案:D263.大數(shù)據(jù)平臺(tái)核心分布式存儲(chǔ)與計(jì)算組件采用Hadoop技術(shù)體系中的分布式存儲(chǔ)、分布式計(jì)算框架及Spark等開源產(chǎn)品和技術(shù),實(shí)現(xiàn)對(duì)數(shù)據(jù)的安全控制和管理功能,其中分布式存儲(chǔ)不包括()。A、HDFSB、PostgresqlC、HiveD、HBase答案:B264.python中,while的中止的關(guān)鍵字是()。A、continueB、rokenC、breakD、plug答案:C265.變量的不確定性越大,相對(duì)應(yīng)信息熵的變化是()。A、熵變小B、熵變大C、不變D、以上答案都不正確答案:B266.以等可能性為基礎(chǔ)的概率是()。A、古典概率B、經(jīng)驗(yàn)概率C、試驗(yàn)概率D、主觀概率答案:A267.階躍函數(shù)與sigmoid函數(shù)均為典型激活函數(shù),該說法()。A、正確B、錯(cuò)誤C、-D、-答案:A268.回歸方程判定系數(shù)的計(jì)算公式R2=SSR/SST=1-SSE/SST,對(duì)判定系數(shù)描述錯(cuò)誤的是()。A、式中的SSE指殘差平方和B、式中的SSR指總離差平方和C、判定系數(shù)用來衡量回歸方程的擾合優(yōu)度D、判定系數(shù)R2等于相關(guān)系數(shù)的平方答案:B269.有N個(gè)樣本,一般用于訓(xùn)練,一般用于測試。若N增大,則訓(xùn)練誤差和測試誤差之間的差距會(huì)()。A、增大B、減小C、無法確定D、無明顯變化答案:B270.下列()模塊包括用于加載和獲取流行的參考數(shù)據(jù)集的方法。A、sklearn.dataB、sklearn.datasetsC、sklearn.datasD、sklearn.datafetch答案:B271.以下字符串表示plot線條顏色、點(diǎn)的形狀和類型為紅色五角星點(diǎn)短虛線的是()。A、'bs-'B、'go-.'C、'r+-.'D、'r*-.'答案:D272.Python中用于生成隨機(jī)數(shù)的模塊是random,以下描述錯(cuò)誤的是()。A、random.random):生成一個(gè)0-1之間的隨機(jī)浮點(diǎn)數(shù)B、random.uniform(a,b):生成[a,b]之間的浮點(diǎn)數(shù)C、random.randint(a,b):生成[a,b]之間的整數(shù)D、random.choice(sequence):隨機(jī)生成任意一個(gè)整數(shù)答案:D273.random庫中用于生成隨機(jī)小數(shù)的函數(shù)是()。A、random)B、randint)C、getrandbits)D、randrange)答案:A274.以下關(guān)于副本和視圖描述,錯(cuò)誤的是()。A、Numpy的切片操作返回原數(shù)據(jù)的視圖B、調(diào)用Ndarray的view)函數(shù)產(chǎn)生一個(gè)視圖C、Python序列的切片操作,調(diào)用deepCopy)函數(shù)D、調(diào)用Ndarray的copy)函數(shù)產(chǎn)生一個(gè)視圖答案:D275.在數(shù)據(jù)科學(xué)項(xiàng)目的活動(dòng)流程中,()主要回答的是“我們用什么方式記錄和展現(xiàn)數(shù)據(jù)結(jié)果”。A、數(shù)據(jù)的獲得與管理B、模式/模型的驗(yàn)證和優(yōu)化C、結(jié)果的可視化與文檔化D、模式/模型的應(yīng)用及維護(hù)答案:C276.數(shù)據(jù)科學(xué)是一門以()為主要研究任務(wù)的獨(dú)立學(xué)科。A、“數(shù)據(jù)驅(qū)動(dòng)”“數(shù)據(jù)業(yè)務(wù)化”“數(shù)據(jù)洞見”“數(shù)據(jù)產(chǎn)品研發(fā)”和(或)“數(shù)據(jù)生態(tài)系統(tǒng)的建設(shè)”B、數(shù)據(jù)研發(fā)C、數(shù)據(jù)處理D、數(shù)據(jù)洞見答案:A277.當(dāng)需要在字符串中使用特殊字符時(shí),python使用()作為轉(zhuǎn)義字符。A、\B、/C、#D、%答案:A278.增加卷積核的大小對(duì)于改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)的效果是必要的嗎()A、是的,增加卷積核尺寸一定能提高性能B、不是,增加核函數(shù)的大小不一定會(huì)提高性能C、-D、-答案:B279.下面說法錯(cuò)誤的是()。A、可以利用統(tǒng)計(jì)量對(duì)缺失值進(jìn)行填補(bǔ)B、可以利用K近鄰值對(duì)缺失值進(jìn)行填補(bǔ)C、只要有缺失值就必須把對(duì)應(yīng)記錄刪除D、對(duì)于缺失值較多的屬性可以考慮刪除答案:C280.不屬于Mayer-Sch?nbergerV和CukierK.在其著名論著《BigData:ARevolutionThatWillTransformHowWeLive,Work,andThink》中提出了大數(shù)據(jù)時(shí)代統(tǒng)計(jì)的思維變革的是()。A、不是隨機(jī)樣本,而是全體數(shù)據(jù)B、不是精確性,而是混雜性C、不是描述性分析,而是預(yù)測性分析D、不是因果關(guān)系,而是相關(guān)關(guān)系答案:C281.常用的圖像去噪方法有()。A、高斯濾波B、中值濾波C、P-M方程去噪D、以上答案都正確答案:D282.np.floor([-1.7,1.5,-0.2,0.6,10])的輸出結(jié)果是()。A、[-1,1,0,0,10]B、[-2.,1.,-1.,0.,10.]C、[-1.,1.,-1.,0.,10.]D、[-2.,1.,0.,0.,10.]答案:B283.關(guān)于層次聚類算法:①不斷重復(fù)直到達(dá)到預(yù)設(shè)的聚類簇?cái)?shù);②不斷合并距離最近的聚類簇;③對(duì)初始聚類簇和相應(yīng)的距離矩陣初始化;④對(duì)合并得到的聚類簇進(jìn)行更新。正確的執(zhí)行順序?yàn)椋ǎ?。A、①②③④B、①③②④C、③②④①D、③④①②答案:C284.以下說法正確的是()。A、一個(gè)機(jī)器學(xué)習(xí)模型如果有較高準(zhǔn)確率,總是說明這個(gè)分類器是好的B、如果增加模型復(fù)雜度,那么模型的測試錯(cuò)誤率不一定會(huì)降低C、如果增加模型復(fù)雜度,那么模型的訓(xùn)練錯(cuò)誤率總是會(huì)降低D、-答案:C285.下面色彩空間中,最接近人的視覺系統(tǒng)的特點(diǎn)的是()。A、RGB空間B、CMY空間C、MYK空間D、HSI空間答案:D286.Python運(yùn)算符中用來計(jì)算集合并集的是()。A、|B、&C、||D、+答案:A287.以下敘述正確的是()。A、continue語句的作用是結(jié)束整個(gè)循環(huán)的執(zhí)行B、只能在循環(huán)體內(nèi)使用break語句C、在循環(huán)體內(nèi)使用break語句或continue語句的作用相同D、從多層循環(huán)嵌套中退出時(shí),只能使用goto語句答案:B288.當(dāng)訓(xùn)練樣本近似線性可分時(shí),通過(),學(xué)習(xí)一個(gè)()。A、硬間隔,最大化非線性支持向量機(jī)B、軟間隔,最大化線性支持向量機(jī)C、硬間隔,最大化線性支持向量機(jī)D、軟間隔,最大化非線性支持向量機(jī)答案:B289.()是實(shí)現(xiàn)數(shù)據(jù)戰(zhàn)略的重要保障。A、數(shù)據(jù)管理B、數(shù)據(jù)分析C、數(shù)據(jù)治理D、數(shù)據(jù)規(guī)劃答案:C290.以下不屬于基于圖像灰度分布的閾值分割方法的是()。A、類間最大距離法B、最大類間方差法C、Otsu方法D、區(qū)域生長法答案:D291.直方圖均衡化適用于增強(qiáng)直方圖呈()分布的圖像。A、尖峰B、波形C、隨機(jī)D、高斯答案:A292.下列關(guān)于數(shù)據(jù)轉(zhuǎn)換,正確的是()。A、Json內(nèi)的取值只能有統(tǒng)一格式B、PDF文件在不同平臺(tái)上打開顯示不同C、可以通過Python將CSV文件轉(zhuǎn)換成Excel格式D、Excel存儲(chǔ)數(shù)據(jù)的量無限制答案:C293.SLIC算法的主要目的是()。A、目標(biāo)識(shí)別B、前景和背景分離C、超像素提取D、語義分割答案:C294.關(guān)于L1、L2正則化,下列說法正確的是()。A、L2正則化能防止過擬合,提升模型的泛化能力,但L1做不到這點(diǎn)B、L2正則化技術(shù)又稱為LassoRegularizationC、L1正則化得到的解更加稀疏D、L2正則化得到的解更加稀疏答案:C295.一幅數(shù)字圖像是()。A、一個(gè)觀測系統(tǒng)B、一個(gè)由許多像素排列而成的實(shí)體C、一個(gè)2-D數(shù)組中的元素D、一個(gè)3-D空間中的場景答案:C296.pipinstallscipy==1.7與pipinstallscipy兩者的區(qū)別是()。A、兩者作用一樣B、前者安裝指定版本的包,后者安裝最新版本的包C、前者安裝指定版本的包,后者安裝隨機(jī)版本的包D、以上答案都不正確答案:B297.以下代碼的輸出結(jié)果為()。A、[101001000]B、[100100001000000]C、[123]D、[10100001000000000]答案:B298.scipyScipy中的圖像處理模塊是哪個(gè)()。A、imageB、ndimageC、photoD、optimize答案:B299.以下不屬于大數(shù)據(jù)重要意義的是()。A、大數(shù)據(jù)成為推動(dòng)經(jīng)濟(jì)轉(zhuǎn)型發(fā)展的新動(dòng)力B、大數(shù)據(jù)成為重塑國家競爭優(yōu)勢的新機(jī)遇C、大數(shù)據(jù)成為提升政府治理能力的新途徑D、大數(shù)據(jù)會(huì)增加經(jīng)濟(jì)發(fā)展的成本答案:D300.假設(shè)你正在訓(xùn)練一個(gè)LSTM網(wǎng)絡(luò),你有一個(gè)10000詞的詞匯表,并且使用一個(gè)激活值維度為100的LSTM塊,在每一個(gè)時(shí)間步中,Γu的維度是()。A、1B、100C、300D、10000答案:B301.當(dāng)我們需要在一張圖表中加上文字標(biāo)注,達(dá)到提醒讀者的目的時(shí),需要用到()函數(shù)。A、plt.axvspan)B、plt.axhspan)C、plt.annotate)D、plt.text)答案:D302.以下哪個(gè)數(shù)據(jù)類型中,不可以作為索引對(duì)Numpy數(shù)組進(jìn)行選取的是()。A、booleanB、tupleC、dictD、int答案:C303.scipy.stats中,()表示泊松分布。A、gammaB、poissonC、binomD、uniform答案:B304.訓(xùn)練完SVM模型后,不是支持向量的那些樣本我們可以丟掉,也可以繼續(xù)分類。該說法()。A、正確B、錯(cuò)誤C、-D、-答案:A305.Spark的集群管理模式不包含()。A、Standalone模式B、Message模式C、YARN模式D、Mesos模式答案:B306.下列屬于無監(jiān)督學(xué)習(xí)的是()。
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 五億合同標(biāo)準(zhǔn)文本
- 2025年中國聚氨酯保溫材料行業(yè)市場全景監(jiān)測及投資戰(zhàn)略咨詢報(bào)告
- 代工廠加盟合同標(biāo)準(zhǔn)文本
- 樂器出租合同樣本
- 環(huán)保工程設(shè)計(jì)與實(shí)施合同協(xié)議
- 公司發(fā)包合同樣本
- 2025年中國汽車車身行業(yè)市場運(yùn)行態(tài)勢及投資戰(zhàn)略咨詢研究報(bào)告
- 公交 運(yùn)營服務(wù) 合同標(biāo)準(zhǔn)文本
- 亞馬遜公司合同樣本
- 住宅建設(shè)合同樣本
- 2025屆高考地理二輪復(fù)習(xí)高考非選擇題專練專練八以世界典型區(qū)域?yàn)楸尘暗木C合題含解析
- 2025年單位節(jié)日集體福利慰問品采購合同8篇
- 第16課《大家排好隊(duì)》名師課件
- 北京大學(xué)DeepSeek系列-DeepSeek與AIGC應(yīng)用
- 2025年開封大學(xué)單招職業(yè)傾向性測試題庫新版
- DB23-T 3912-2024 信息技術(shù)和工業(yè)技術(shù)深度融合指南
- DB11-T 1526-2018 地下連續(xù)墻施工技術(shù)規(guī)程
- 風(fēng)電制氫項(xiàng)目可行性研究報(bào)告
- 加氣站安全生產(chǎn)獎(jiǎng)懲規(guī)定模版(3篇)
- 細(xì)胞治療政策環(huán)境分析-洞察分析
- 公園景觀修復(fù)零星維修施工方案
評(píng)論
0/150
提交評(píng)論