2023年大數(shù)據(jù)應(yīng)用技能競賽全題庫-上(單選題匯總)_第1頁
2023年大數(shù)據(jù)應(yīng)用技能競賽全題庫-上(單選題匯總)_第2頁
2023年大數(shù)據(jù)應(yīng)用技能競賽全題庫-上(單選題匯總)_第3頁
2023年大數(shù)據(jù)應(yīng)用技能競賽全題庫-上(單選題匯總)_第4頁
2023年大數(shù)據(jù)應(yīng)用技能競賽全題庫-上(單選題匯總)_第5頁
已閱讀5頁,還剩174頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

PAGEPAGE1792023年大數(shù)據(jù)應(yīng)用技能競賽全題庫-上(單選題匯總)一、單選題1.a=1,b=2,c=3,以下表達(dá)式值為True的是()。A、a>=bor(c+5)%3==1B、not(a==1andb!=c)C、notaandb==cD、aanda+b>=c答案:D2.下列哪項(xiàng)關(guān)于模型能力(modelcapacity指神經(jīng)網(wǎng)絡(luò)模型能擬合復(fù)雜函數(shù)的能力)的描述是正確的()A、隱藏層層數(shù)增加,模型能力增加B、Dropout的比例增加,模型能力增加C、學(xué)習(xí)率增加,模型能力增加D、都不正確答案:A3.在Python中,調(diào)用open()時需要將內(nèi)容附加到文件末尾,而不是覆蓋文件原來內(nèi)容,則第二個實(shí)參應(yīng)該使用()。A、a'B、'g'C、'm'D、'w'答案:A4.在數(shù)據(jù)科學(xué)中,R的包通常從()下載。A、PIPB、CRANC、RstudioD、Pypi答案:B5.著名的C4.5決策樹算法使用()來選擇最優(yōu)劃分屬性。A、信息增益B、增益率C、基尼指數(shù)D、均值答案:B6.數(shù)據(jù)倉庫是隨著時間變化的,下面的描述不正確的是()。A、數(shù)據(jù)倉庫隨時間的變化不斷增加新的數(shù)據(jù)內(nèi)容B、捕捉到的新數(shù)據(jù)會覆蓋原來的快照C、數(shù)據(jù)倉庫隨事件變化不斷刪去舊的數(shù)據(jù)內(nèi)容D、數(shù)據(jù)倉庫中包含大量的綜合數(shù)據(jù),這些綜合數(shù)據(jù)會隨著時間的變化不斷地進(jìn)行重新綜合答案:C7.下面()屬于SVM應(yīng)用。A、文本和超文本分類B、圖像分類C、新文章聚類D、以上均是答案:D8.以下哪項(xiàng)關(guān)于決策樹的說法是錯誤的()。A、冗余屬性不會對決策樹的準(zhǔn)確率造成不利的影響B(tài)、子樹可能在決策樹中重復(fù)多次C、決策樹算法對于噪聲的干擾非常敏感D、尋找最佳決策樹是NP完全問題答案:C9.階躍函數(shù)與sigmoid函數(shù)均為典型激活函數(shù)()。A、正確B、錯誤答案:A10.Sigmoid函數(shù)作為神經(jīng)元激活函數(shù)的特點(diǎn)是()。A、連續(xù)但不光滑B、不連續(xù)但光滑C、連續(xù)且光滑D、不連續(xù)且不光滑答案:C11.在支持向量機(jī)中,軟間隔支持向量機(jī)的目標(biāo)函數(shù)比硬間隔支持向量機(jī)多了一個(__)。A、偏置項(xiàng)bB、系數(shù)C、松弛變量D、兩種情況的目標(biāo)函數(shù)相同答案:C12.Matplotlib中imread方法的讀取到圖像后是以()類型進(jìn)行存儲。A、列表B、數(shù)組C、字符串D、圖片答案:B13.()選擇成為支持向量機(jī)的最大變數(shù)。A、核函數(shù)B、樣本空間C、模型D、算法答案:A14.當(dāng)我們需要在一張圖表中特意指出某個特殊點(diǎn),并加上標(biāo)注達(dá)到醒目的目的時,需要用到()函數(shù)。A、plt.axvspan()B、plt.axhspan()C、plt.annotate()D、plt.text()答案:C15.數(shù)組分割使用以下哪個函數(shù)()。A、vstack()B、hstack()C、split()D、view()答案:C16.IDLE環(huán)境的退出命令是()。A、exit()B、回車鍵C、close()D、esc()答案:A17.在深度學(xué)習(xí)中,下列對于sigmoid函數(shù)的說法,錯誤的是()。A、存在梯度爆炸的問題B、不是關(guān)于原點(diǎn)對稱C、計(jì)算exp比較耗時D、存在梯度消失的問題答案:A18.聚類是一種典型的無監(jiān)督學(xué)習(xí)任務(wù),然而在現(xiàn)實(shí)聚類任務(wù)中我們往往能獲得一些額外的監(jiān)督信息,于是可通過()來利用監(jiān)督信息以獲得更好的聚類效果。A、監(jiān)督聚類B、半監(jiān)督聚類C、聚類D、直推聚類答案:B19.美國海軍軍官莫里通過對前人航海日志的分析,繪制了新的航海路線圖,標(biāo)明了大風(fēng)與洋流可能發(fā)生的地點(diǎn)。這體現(xiàn)了大數(shù)據(jù)分析理念中的()。A、在數(shù)據(jù)基礎(chǔ)上傾向于全體數(shù)據(jù)而不是抽樣數(shù)據(jù)B、在分析方法上更注重相關(guān)分析而不是因果分析C、在分析效果上更追究效率而不是絕對精確D、在數(shù)據(jù)規(guī)模上強(qiáng)調(diào)相對數(shù)據(jù)而不是絕對數(shù)據(jù)答案:B20.相對于HadoopMapReduce1.0,Spark的特點(diǎn)不包括()。A、速度快B、并發(fā)多C、通用性D、易用性答案:B21.以下選項(xiàng)中,正確地描述了浮點(diǎn)數(shù)0.0和整數(shù)0相同性的是()。A、它們使用相同的硬件執(zhí)行單元B、它們具有相同的數(shù)據(jù)類型C、它們具有相同的值D、它們使用相同的計(jì)算機(jī)指令處理方法答案:C22.下列關(guān)于MapReduce說法不正確的是()。A、MapReduce是一種計(jì)算框架B、MapReduce來源于google的學(xué)術(shù)論文C、MapReduce程序只能用java語言編寫D、MapReduce隱藏了并行計(jì)算的細(xì)節(jié),方便使用答案:C23.通常“落伍者”是影響MapReduce總執(zhí)行時間的主要影響因素之一,為此MapReduce采用()機(jī)制來解決。A、分布式計(jì)算B、惰性計(jì)算C、推測性執(zhí)行的任務(wù)備份D、先進(jìn)先出答案:C24.列表是Python語言中基本數(shù)據(jù)類型之一。我們可以通過“l(fā)ist【i】”獲取列表中第i個元素的值,那么“l(fā)ist【i:j】”有什么作用()。A、將列表中第i個元素的值設(shè)置為jB、返回一個列表切片——由原列表第i個到第j-1個元素組成的新列表C、返回一個擁有第i和j個元素的新列表D、返回一個擁有第j和i個元素的新列表答案:B25.以下描述中錯誤的是()。A、數(shù)據(jù)化與數(shù)字化是兩個不同概念B、數(shù)據(jù)與數(shù)值是一個概念C、大數(shù)據(jù)與海量數(shù)據(jù)是兩個不同的概念D、數(shù)據(jù)和信息是兩個不同的概念答案:B26.可視化視覺下的數(shù)據(jù)類型不包括()。A、定類數(shù)據(jù)B、定序數(shù)據(jù)C、定寬數(shù)據(jù)D、定比數(shù)據(jù)答案:C27.關(guān)于L1、L2正則化下列說法正確的是()A、L2正則化能防止過擬合,提升模型的泛化能力,但L1做不到這點(diǎn)B、L2正則化技術(shù)又稱為LassoRegularizationC、L1正則化得到的解更加稀疏D、L2正則化得到的解更加稀疏答案:C28.在Python中,下列不是int整型數(shù)據(jù)的是()。A、160B、10C、-78D、0x234答案:B29.下面有關(guān)分類算法的準(zhǔn)確率,召回率,F1值的描述,錯誤的是()。A、準(zhǔn)確率是檢索出相關(guān)文檔數(shù)與檢索出的文檔總數(shù)的比率,衡量的是檢索系統(tǒng)的查準(zhǔn)率B、召回率是指檢索出的相關(guān)文檔數(shù)和文檔庫中所有的相關(guān)文檔數(shù)的比率,衡量的是檢索系統(tǒng)的查全率C、正確率、召回率和F值取值都在0和1之間,數(shù)值越接近0,查準(zhǔn)率或查全率就越高D、為了解決準(zhǔn)確率和召回率沖突問題,引入了F1分?jǐn)?shù)答案:C30.下列算法中,不屬于外推法的是()。A、移動平均法B、回歸分析法C、指數(shù)平滑法D、季節(jié)指數(shù)法答案:B31.以下那個選項(xiàng)是在局部生效的,出了這個變量的作用域,這個變量就失效了()。A、局部變量B、全局變量C、字典D、集合答案:A32.()表達(dá)了在當(dāng)前任務(wù)上任何學(xué)習(xí)算法所能達(dá)到的期望泛化誤差的下界,即刻畫了學(xué)習(xí)問題本身的難度。A、偏差B、方差C、噪聲D、泛化誤差答案:C33.以下關(guān)于模塊說法錯誤的是()。A、一個xx.py就是一個模塊;B、任何一個普通的xx.py文件可以作為模塊導(dǎo)入;C、模塊文件的擴(kuò)展名不一定是.py;D、運(yùn)行時會從制定的目錄搜索導(dǎo)入的模塊,如果沒有,會報(bào)錯異常答案:C34.在MapReduce中,通常將Map拆分成M個片段、Reduce拆分成R個片段,下面描述中錯誤的是()。A、MapReduced中單臺機(jī)器上執(zhí)行大量不同的任務(wù)可以提高集群的負(fù)載均衡能力B、Master必須執(zhí)行O(M+R)次調(diào)度C、Master在內(nèi)存中保存O(M+R)個狀態(tài)D、M和R要比集群中Worker數(shù)量多答案:C35.某工廠共有100名員工,他們的月工資方差是s,現(xiàn)在給每個員工的月工資增加3000元,那么他們的新工資的方差()。A、為s+3000B、小了C、大了D、不變答案:D36.Scipy中的圖像處理模塊是哪個()。A、imageB、ndimgeC、photoD、optimize答案:B37.以下哪一種分布是二維隨機(jī)變量的分布()。A、正態(tài)分布B、二項(xiàng)分布C、邊緣分布D、指數(shù)分布答案:C38.LSTM中,(__)的作用是確定哪些新的信息留在細(xì)胞狀態(tài)中,并更新細(xì)胞狀態(tài)。A、輸入門B、遺忘門C、輸出門D、更新門答案:A39.()的本質(zhì)是將低層次數(shù)據(jù)轉(zhuǎn)換為高層次數(shù)據(jù)的過程。A、數(shù)據(jù)處理B、數(shù)據(jù)計(jì)算C、數(shù)據(jù)加工(DataWrangling或DataMunging)D、整齊數(shù)據(jù)答案:C40.以下關(guān)于Mahout說法正確的是()。A、存儲框架B、數(shù)據(jù)管理框架C、數(shù)據(jù)可視化專業(yè)工具D、可擴(kuò)展的機(jī)器學(xué)習(xí)算法及其實(shí)現(xiàn)答案:D41.以下代碼的輸出結(jié)果為()。A=np.array(【【5,3,2】,【2,4,0】】)N=np.sort(a,axis=None)Print(n)A、【022345】B、【543220】C、【【230】【542】】D、【【235】【024】】答案:A42.數(shù)據(jù)使用環(huán)節(jié)的安全技術(shù)措施除防火墻、()、防病毒、防DDOS、漏洞檢測等網(wǎng)絡(luò)安全防護(hù)技術(shù)措施外,還需實(shí)現(xiàn)以下安全技術(shù)能力:賬號權(quán)限管理、數(shù)據(jù)安全域、數(shù)據(jù)脫敏、日志管理和審計(jì)、異常行為實(shí)時監(jiān)控和終端數(shù)據(jù)防泄漏。A、入侵檢測B、病毒檢測C、程序檢測D、進(jìn)程檢測答案:A43.診斷性分析主要采取的分析方法是()和()。A、關(guān)聯(lián)分析和因果分析法B、關(guān)聯(lián)分析和分類分析法C、關(guān)聯(lián)分析和運(yùn)籌學(xué)D、因果分析和分類分析法答案:A44.下列縮進(jìn)格式描述不正確的是()。A、縮進(jìn)指在代碼行前面添加空格或Tab;B、在Python程序中,縮進(jìn)不是任意的;C、縮進(jìn)可以使程序更有層次感、更有結(jié)構(gòu)感,從而是程序更易讀。D、平級的語句行(代碼塊)的縮進(jìn)可以不相同。答案:D45.Python解釋器的提示符為()。A、>;B、>>;C、>>>;D、#;答案:C46.對于神經(jīng)網(wǎng)絡(luò)的說法,下面正確的是(__)。A、增加神經(jīng)網(wǎng)絡(luò)層數(shù),可能會增加測試數(shù)據(jù)集的分類錯誤率B、減少神經(jīng)網(wǎng)絡(luò)層數(shù),總是能減小測試數(shù)據(jù)集的分類錯誤率C、增加神經(jīng)網(wǎng)絡(luò)層數(shù),總是能減小訓(xùn)練數(shù)據(jù)集的分類錯誤率D、1、2都對答案:A47.下列哪個方法不屬于情感分析的評測()。A、COAE評測B、cifar10數(shù)據(jù)集評測C、CCFTCCI評測D、TAC評測答案:B48.下面哪個是滿足期望輸出的代碼()。Arr=np.array(【0,1,2,3,4,5,6,7,8,9】)期望輸出:array(【1,3,5,7,9】)A、arr%2==1B、arr【arr%2==1】C、arr【arr/2==1】D、arr【arr//2==1】答案:B49.如果要將讀寫位置移動到文件開頭,需要使用的命令是()。A、closeB、seek(0)C、truncateD、write('stuff')答案:B50.假設(shè)在龐大的數(shù)據(jù)集上使用Logistic回歸模型,可能遇到一個問題,Logistic回歸需要很長時間才能訓(xùn)練,如果對相同的數(shù)據(jù)進(jìn)行邏輯回歸,如何花費(fèi)更少的時間,并給出比較相似的精度()。A、降低學(xué)習(xí)率,減少迭代次數(shù)B、降低學(xué)習(xí)率,增加迭代次數(shù)C、提高學(xué)習(xí)率,增加迭代次數(shù)D、增加學(xué)習(xí)率,減少迭代次數(shù)答案:D51.可用作數(shù)據(jù)挖掘分析中的關(guān)聯(lián)規(guī)則算法有()。A、機(jī)器學(xué)習(xí)、對數(shù)回歸、關(guān)聯(lián)模式B、K均值法、SOM機(jī)器學(xué)習(xí)C、Apriori算法、FP-Tree算法D、RBF機(jī)器學(xué)習(xí)、K均值法、機(jī)器學(xué)習(xí)答案:C52.MapReduce編程模型中以下組件哪個是最后執(zhí)行的()A、MapperB、PartitionerC、ReducerD、RecordReader答案:C53.采用模板【-11】主要檢測()方向的邊緣。A、水平B、45°C、垂直D、135°答案:C54.關(guān)于層次聚類算法:(1)不斷重復(fù)直達(dá)達(dá)到預(yù)設(shè)的聚類簇?cái)?shù)(2)不斷合并距離最近的聚類簇(3)對初始聚類簇和相應(yīng)的距離矩陣初始化(4)對合并得到的聚類簇進(jìn)行更新。正確的執(zhí)行順序?yàn)?)。A、1234B、1324C、3241D、3412答案:C55.如何通過代理服務(wù)器進(jìn)行爬蟲()。A、個人發(fā)送訪問請求到代理服務(wù)器,代理服務(wù)器轉(zhuǎn)發(fā)到網(wǎng)站,網(wǎng)站反饋給個人B、個人發(fā)送訪問請求到網(wǎng)站,網(wǎng)站反饋給個人,并備份訪問記錄到代理服務(wù)器C、個人發(fā)送訪問請求到代理服務(wù)器,代理服務(wù)器轉(zhuǎn)發(fā)到網(wǎng)站,網(wǎng)站反饋給代理服務(wù)器,代理服務(wù)器再發(fā)送給個人D、個人發(fā)送訪問請求到網(wǎng)站,網(wǎng)站反饋給代理服務(wù)器,個人再訪問代理服務(wù)器獲取網(wǎng)頁信息答案:C56.向量空間模型的缺陷不包括()。A、維度災(zāi)難B、模型稀疏性C、語義信息缺失D、無法計(jì)算文本相似度答案:D57.下列屬于無監(jiān)督學(xué)習(xí)的是()。A、K-meansB、SVMC、最大熵D、CRF答案:A58.以下代碼的輸出結(jié)果為()。ImportnumpyasnpA=np.arange(4)B=a【:】A【1】=9Print(a)Print(b)A、【0123】【0123】B、【1934】【1234】C、【0923】【0923】D、【0923】【0123】答案:C59.數(shù)據(jù)安全技術(shù)保護(hù)與信息系統(tǒng)“三同步”原則不包括以下哪項(xiàng)()。A、同步規(guī)劃B、同步建設(shè)C、同步使用D、同步運(yùn)維答案:D60.Spark的集群管理模式不包含()。A、Standalone模式B、Message模式C、YARN模式D、Mesos模式答案:B61.聚類算法己經(jīng)默認(rèn)所有的記錄都是()的實(shí)體。A、相關(guān)聯(lián)B、有備份C、不獨(dú)立D、獨(dú)立答案:D62.點(diǎn)擊率的預(yù)測是一個數(shù)據(jù)比例不平衡問題(比如訓(xùn)練集中樣本呈陰性的比例為99%,陽性的比例是1%),如果我們用這種數(shù)據(jù)建立模型并使得訓(xùn)練集的準(zhǔn)確率高達(dá)99%。我們可以得出結(jié)論是:()。A、模型的準(zhǔn)確率非常高,我們不需要進(jìn)一步探索B、模型不好,我們應(yīng)建一個更好的模型C、無法評價(jià)模型D、以上答案都不正確答案:C63.假設(shè)你需要調(diào)整參數(shù)來最小化代價(jià)函數(shù)(costfunction),會使用()技術(shù)。A、窮舉搜索B、隨機(jī)搜索C、Bayesian優(yōu)化D、以上全是答案:D64.下面哪個問題不適合使用機(jī)器學(xué)習(xí)方法解決()。A、判斷電子郵件是否是垃圾郵件B、判斷給定的圖中是否有環(huán)C、判斷是否給指定用戶辦理信用卡D、對滴滴拼車乘客分簇答案:B65.在Python中,導(dǎo)入random包后random.random()可能的運(yùn)行結(jié)果為()。A、1B、4.0636470001647C、0.096563931857176D、-0.88515562282635答案:C66.(假設(shè)precision=TP/(TP+FP),recall=TP/(TP+FN))在二分類問題中,當(dāng)測試集的正例和負(fù)例數(shù)量不均衡時,以下評價(jià)方案哪個是相對不合理的()。A、Accuracy:(TP+TN)/allB、F-value:2recallprecision/(recall+precision)C、G-mean:sqrt(precision*recall)D、AUC:曲線下面積答案:A67.下列關(guān)于HDFS的描述正確的是()A、如果NameNode宕機(jī),SecondaryNameNode會接替它使集群繼續(xù)工作B、HDFS集群支持?jǐn)?shù)據(jù)的隨機(jī)讀寫C、NameNode磁盤元數(shù)據(jù)不保存Block的位置信息D、DataNode通過長連接與NameNode保持通信答案:C68.matplotlib中設(shè)置x軸數(shù)值顯示范圍的函數(shù)是什么()。A、xrange()B、xspan()C、xlabel()D、xlim()答案:D69.多分類圖像識別任務(wù)常采用()作為輸出的編碼方式。A、二進(jìn)制編碼B、one-hot編碼C、霍夫曼編碼D、曼切斯特編碼答案:B70.運(yùn)行下面的代碼,輸出結(jié)果是()。ImportnumpyasnpN=np.array(【【1,2,3】,【4,5,6】】)Print(n.size)A、2B、6C、(2,3)D、(3,2)答案:B71.在回歸分析中,說法正確的是()。A、解釋變量和被解釋變量都是隨機(jī)變量B、解釋變量為非隨機(jī)變量,被解釋變量為隨機(jī)變量C、解釋變量和被解釋變量都為非隨機(jī)變量D、解釋變量為隨機(jī)變量,被解釋變量為非隨機(jī)變量答案:B72.假設(shè)你在卷積神經(jīng)網(wǎng)絡(luò)的第一層中有5個卷積核,每個卷積核尺寸為7×7,具有零填充且步幅為1。該層的輸入圖片的維度是224×224×3。那么該層輸出的維度是多少()A、217x217x3B、217x217x8C、218x218x5D、220x220x7答案:C73.RNN不同于其它神經(jīng)網(wǎng)絡(luò)的地方在于(__)。A、實(shí)現(xiàn)了記憶功能B、速度快C、精度高D、易于搭建答案:A74.使用似然函數(shù)的目的是()。A、求解目標(biāo)函數(shù)B、得到最優(yōu)數(shù)據(jù)樣本C、找到最適合數(shù)據(jù)的參數(shù)D、改變目標(biāo)函數(shù)分布答案:C75.matplotlib中的調(diào)用堆積折線圖的函數(shù)是什么()。A、step()B、stackplot()C、plusplot()D、hist()答案:B76.特征工程的目的是()。A、找到最合適的算法B、得到最好的輸入數(shù)據(jù)C、減低模型復(fù)雜度D、加快計(jì)算速度答案:B77.()屬于Spark框架中的可擴(kuò)展機(jī)器學(xué)習(xí)庫。A、MLibB、GraphXC、StreamingD、SparkSQL答案:A78.如下哪些不是最近鄰分類器的特點(diǎn)()。A、它使用具體的訓(xùn)練實(shí)例進(jìn)行預(yù)測,不必維護(hù)源自數(shù)據(jù)的模型B、分類一個測試樣例開銷很大C、最近鄰分類器基于全局信息進(jìn)行預(yù)測D、可以生產(chǎn)任意形狀的決策邊界答案:C79.以下關(guān)于traintestsplit函數(shù)的說法正確的是()。A、train_test_split能夠?qū)?shù)據(jù)集劃分為訓(xùn)練集、驗(yàn)證集和測試集B、train_test_split的輸入只能是一個數(shù)組C、train_test_split每次的劃分結(jié)果不同,無法解決D、train_test_split函數(shù)可以自行決定訓(xùn)練集和測試集的占比答案:D80.MapReduce對map()函數(shù)的返回值進(jìn)行處理后再返回給reduce()函數(shù)的目的是()。A、減少map()函數(shù)和reduce()函數(shù)之間的數(shù)據(jù)傳輸B、優(yōu)化map()函數(shù)C、優(yōu)化reduce()函數(shù)D、這一步驟并無必要答案:A81.在Python中,函數(shù)()。A、不可以嵌套定義B、不可以嵌套調(diào)用C、不可以遞歸調(diào)用D、以上答案都不正確答案:D82.a=np.arange(1,13,1).reshape(3,4),np.mean(a,axis=0)的輸出結(jié)果是()。A、【【1,2,3,4】,【5,6,7,8】,【9,10,11,12】】B、6.5C、【5,6,7,8】D、【2.5,6.5,10.5】答案:C83.假如使用一個較復(fù)雜的回歸模型來擬合樣本數(shù)據(jù),使用Ridge回歸,調(diào)試正則化參數(shù)λ,來降低模型復(fù)雜度。若λ較大時,關(guān)于偏差(bias)和方差(variance),下列說法正確的是()A、若λ較大時,偏差減小,方差減小B、若λ較大時,偏差減小,方差增大C、若λ較大時,偏差增大,方差減小D、若λ較大時,偏差增大,方差增大答案:C84.Spark中引入RDD概念的目的是()。A、數(shù)據(jù)存儲B、數(shù)據(jù)查重C、提升容錯能力D、增強(qiáng)數(shù)據(jù)一致性答案:C85.正態(tài)分布的兩個參數(shù)μ與σ,()對應(yīng)的正態(tài)曲線愈趨扁平。A、μ愈大B、μ愈小C、σ愈大D、σ愈小答案:C86.從網(wǎng)絡(luò)的原理上來看,結(jié)構(gòu)最復(fù)雜的神經(jīng)網(wǎng)絡(luò)是()。A、卷積神經(jīng)網(wǎng)絡(luò)B、長短時記憶神經(jīng)網(wǎng)絡(luò)C、GRUD、BP神經(jīng)網(wǎng)絡(luò)答案:B87.給定訓(xùn)練樣例集,設(shè)法將樣例投影到一條直線上,使得同類樣例的投影點(diǎn)盡可能接近、異類樣例的投影點(diǎn)盡可能遠(yuǎn)離,這說的是()算法。A、PCAB、SVMC、K-meansD、LDA答案:D88.Python使用()符號標(biāo)示注釋。A、&B、*C、#D、//答案:C89.下列選項(xiàng)中,不屬于python特點(diǎn)的是()。A、面向?qū)ο?B、運(yùn)行效率高;C、可移植性;D、免費(fèi)和開源;答案:B90.Python中用于生成隨機(jī)數(shù)的模塊是random,以下描述錯誤的是()。A、random.random():生成一個0-1之間的隨機(jī)浮點(diǎn)數(shù)B、random.uniform(a,b):生成【a,b】之間的浮點(diǎn)數(shù)C、random.randint(a,b):生成【a,b】之間的整數(shù)D、random.choice(sequence):隨機(jī)生成任意一個整數(shù)答案:D91.Spark那個組件用于支持實(shí)時計(jì)算需求()。A、SparkSQLB、SparkStreamingC、SparkGraphXD、SparkMLLib答案:B92.以下選項(xiàng)中,不屬于函數(shù)的作用的是()。A、提高代碼執(zhí)行速度B、降低編程復(fù)雜度C、增強(qiáng)代碼可讀性D、復(fù)用代碼答案:A93.目前,多數(shù)NoSQL數(shù)據(jù)庫是針對特定應(yīng)用場景研發(fā)出來的,其設(shè)計(jì)遵循()原則,更加強(qiáng)調(diào)讀寫效率、數(shù)據(jù)容量以及系統(tǒng)可擴(kuò)展性。A、EASY原則B、READ原則C、BASE原則D、BASIC原則答案:C94.以下代碼的輸出結(jié)果為()。ImportnumpyasnpA=np.array(【【10,7,4】,【3,2,1】】)Print(np.percentile(a,50))A、【【1074】【321】】B、3.5C、【】D、【7.2.】答案:B95.a=np.array(【1,0,0,3,4,5,0,8】),b=np.nonzero(a)B【0】的值為()。A、【0,3,4,5,7】B、【1,3,4,5,8】C、【03457】D、【13458】答案:A96.以下說法正確的是()。A、散點(diǎn)圖不能在子圖中繪制B、散點(diǎn)圖的x軸刻度必須為數(shù)值C、折線圖可以用作查看特征間的趨勢關(guān)系D、箱線圖可以用來查看特征間的相關(guān)關(guān)系答案:C97.繪圖是如何為項(xiàng)目設(shè)置matplotlib參數(shù)()。A、rc()B、sci()C、axes()D、sca()答案:A98.對模型進(jìn)行交叉驗(yàn)證可以使用以下哪種方法()。A、learning_curve()B、cross_val_score()C、permutation_test_scoreD、validation()答案:B99.關(guān)聯(lián)規(guī)則的評價(jià)指標(biāo)是()。A、均方誤差、均方根誤差B、Kappa統(tǒng)計(jì)、顯著性檢驗(yàn)C、支持度、置信度D、平均絕對誤差、相對誤差答案:C100.數(shù)據(jù)探索是指針對目標(biāo)可變、持續(xù)、多角度的搜索或分析任務(wù),下列哪項(xiàng)不是其搜索過程的特點(diǎn)()。A、有選擇B、有策略C、有目標(biāo)D、反復(fù)進(jìn)行的答案:C101.scipy庫中用于物理和數(shù)學(xué)常量計(jì)算的模塊是()。A、scipy.clusterB、scipy.ioC、scipy.constantsD、scipy.linalg答案:C102.所有預(yù)測模型在廣義上都可稱為一個或一組()。A、公式B、邏輯C、命題D、規(guī)則答案:D103.關(guān)于eval函數(shù),以下選項(xiàng)中描述錯誤的是().A、eval函數(shù)的作用是將輸入的字符串轉(zhuǎn)為Python語句,并執(zhí)行該語句B、如果用戶希望輸入一個數(shù)字,并用程序?qū)@個數(shù)字進(jìn)行計(jì)算,可以采用eval(input(<輸入提示字符串>))組合C、執(zhí)行eval("Hello")和執(zhí)行eval("'Hello'")得到相同的結(jié)果|eval函數(shù)的定義為:eval(source,globals=None,locals=None,/)D、eval函數(shù)的定義為:eval(source,globals=None,locals=None,/)答案:C104.哪種聚類方法采用概率模型來表達(dá)聚類()。A、K-meansB、LVQC、DBSCAND、高斯混合聚類答案:D105.學(xué)習(xí)率對機(jī)器學(xué)習(xí)模型結(jié)果會產(chǎn)生影響,通常我希望學(xué)習(xí)率()。A、越小越好B、越大越好C、較小而迭代次數(shù)較多D、較大而迭代次數(shù)較小答案:C106.Python中定義私有屬性的方法是()。A、使用private關(guān)鍵字B、使用public關(guān)鍵字C、使用__XX__定義屬性名D、使用__XX定義屬性名答案:D107.關(guān)于PythonNumpy,Scipy,Pandas這些庫的區(qū)別描述不對的是()。A、Numpy是以矩陣為基礎(chǔ)的數(shù)學(xué)計(jì)算模塊,純數(shù)學(xué)B、Scipy基于Numpy,科學(xué)計(jì)算庫,有一些高階抽象和物理模型C、Pandas提供了一套名為DataFrame的數(shù)據(jù)結(jié)構(gòu)D、三個模塊分別獨(dú)立答案:D108.下列關(guān)于數(shù)據(jù)轉(zhuǎn)換,正確的是()。A、json內(nèi)的取值只能有統(tǒng)一格式B、pdf文件在不同平臺上打開顯示不同C、可以通過python將csv文件轉(zhuǎn)換成Excel格式D、excel存儲數(shù)據(jù)的量無限制答案:C109.關(guān)于隊(duì)列的描述中,以下描述正確的是()。A、在隊(duì)列中只能刪除數(shù)據(jù)B、隊(duì)列是先進(jìn)后出的線性表C、在隊(duì)列中只能插入數(shù)據(jù)D、隊(duì)列是先進(jìn)先出的線性表答案:D110.下面if語句統(tǒng)計(jì)“成績(score)優(yōu)秀的男生以及不及格的男生”的人數(shù),正確的語句為()。A、If(gender==”男”andscore<60orscore>=90):n+=1B、If(gender==”男”andscore<60andscore>=90):n+=1C、If(gender==”男”and(score<60orscore>=90)):n+=1D、If(gender==”男”orscore<60orscore>=90):n+=1答案:C111.MapReduce里面的query、sort和limit等都是針對哪個階段的操作?A、Map()之前;B、Reduce()之前;C、Reduce()之后;D、finalize()之后;答案:A112.大數(shù)據(jù)平臺構(gòu)建分布式文件系統(tǒng)、分布式數(shù)據(jù)倉庫、非關(guān)系型數(shù)據(jù)庫、關(guān)系型數(shù)據(jù)庫,實(shí)現(xiàn)各類數(shù)據(jù)的集中存儲與統(tǒng)一管理,滿足()存儲需求。A、歷史數(shù)據(jù)B、離線數(shù)據(jù)C、實(shí)時數(shù)據(jù)D、多樣化數(shù)據(jù)答案:D113.關(guān)于數(shù)據(jù)創(chuàng)新,下列說法正確的是()。A、個數(shù)據(jù)集的總和價(jià)值等于單個數(shù)據(jù)集價(jià)值相加B、于數(shù)據(jù)的再利用,數(shù)據(jù)應(yīng)該永久保存下去C、同數(shù)據(jù)多次用于相同或類似用途,其有效性會降低D、數(shù)據(jù)開放價(jià)值可以得到真正釋放答案:D114.一個MapReduce程序中的MapTask的個數(shù)由什么決定()A、輸入的總文件數(shù)B、客戶端程序設(shè)置的mapTask的個數(shù)C、FileInputFormat.getSplits(JobContextjob)計(jì)算出的邏輯切片的數(shù)量D、輸入的總文件大小/數(shù)據(jù)塊大小答案:C115.考慮值集{12243324556826},其四分位數(shù)極差是:()A、21B、24C、55D、3答案:A116.機(jī)器學(xué)習(xí)中,基于樣本分布的距離是以下哪一個()A、馬氏距離B、歐式距離C、曼哈頓距離D、閔可夫斯基距離答案:A117.對模型進(jìn)行超參數(shù)優(yōu)化詳盡搜索指定參數(shù)的估計(jì)值使用以下哪種方法()。A、ParameterGrid()B、ParameterSampler()C、GridSearchCV()D、RandomizedSearchCV()答案:C118.彩色圖像增強(qiáng)時,()處理可以采用RGB。A、直方圖均衡化B、同態(tài)濾波C、加權(quán)均值濾波D、中值濾波答案:C119.利用到每個聚類中心和的遠(yuǎn)近判斷離群值的方法,可以基于的算法為()。A、K-MeansB、KNNC、SVMD、LinearRegression答案:A120.數(shù)據(jù)科學(xué)項(xiàng)目應(yīng)遵循一般項(xiàng)目管理的原則和方法,涉及()。A、整體、范圍、時間、成本、質(zhì)量、溝通、風(fēng)險(xiǎn)、宣傳、消費(fèi)B、整體、范圍、時間、成本、質(zhì)量、人力資源、溝通、風(fēng)險(xiǎn)、采購C、整體、范圍、時間、成本、質(zhì)量、人力資源、運(yùn)維、采購、宣傳D、整體、范圍、時間、成本、質(zhì)量、人力資源、采購、宣傳、運(yùn)維答案:B121.關(guān)于數(shù)據(jù)的存儲結(jié)構(gòu),以下選項(xiàng)描述正確的是()。A、數(shù)據(jù)所占的存儲空間量B、存儲在外存中的數(shù)據(jù)C、數(shù)據(jù)在計(jì)算機(jī)中的順序存儲方式D、數(shù)據(jù)的邏輯結(jié)構(gòu)在計(jì)算機(jī)中的表示答案:D122.如果python程序中包括零運(yùn)算,解釋器將在運(yùn)行時拋出()錯誤信息()。A、NameErrorB、FileNotFoundErrorC、SyntaxErrorDZeroD、ivisionError答案:D123.以P(w)表示詞條w的概率,假設(shè)已知P(南京)=0.8,P(市長)=0.6,P(江大橋)=0.4:P(南京市)=0.3,P(長江大橋)=0.5:如果假設(shè)前后兩個詞的出現(xiàn)是獨(dú)立的,那么分詞結(jié)果就是()。A、南京市*長江*大橋B、南京*市長*江大橋C、南京市長*江大橋D、南京市*長江大橋答案:B124.如果一個SVM模型出現(xiàn)欠擬合,那么下列哪種方法能解決這一問題()A、增大懲罰參數(shù)C的值B、減小懲罰參數(shù)C的值C、減小核系數(shù)(gamma參數(shù))答案:A125.np.floor()函數(shù)的作用是()。A、計(jì)算每個元素的模;B、計(jì)算每個元素的符號;C、計(jì)算小于每個元素的最大整數(shù)值;D、計(jì)算每個元素的小數(shù)部分;答案:C126.下列關(guān)于運(yùn)算符優(yōu)先級的說法中,不正確的一個是()。A、運(yùn)算符按照優(yōu)先級順序表進(jìn)行運(yùn)算B、同一優(yōu)先級的運(yùn)算符在表達(dá)式中都是按照從左到右的順序進(jìn)行運(yùn)算的C、同一優(yōu)先級的運(yùn)算符在表達(dá)式中都是按照從右到左的順序進(jìn)行運(yùn)算的D、括號可以改變運(yùn)算的優(yōu)先次序答案:C127.以下關(guān)于新舊MapReduceAPI的描述錯誤的是()A、新API放在org.apache.hadoop.mapreduce包中,而舊API則是放在org.apache.hadoop.mapred中B、新API傾向于使用接口方式,而舊API傾向于使用抽象類C、新API使用Configuration,而舊API使用JobConf來傳遞配置信息D、新API可以使用Job對象來提交作業(yè)答案:B128.()是指為最小化總體風(fēng)險(xiǎn),只需在每個樣本上選擇能使特定條件風(fēng)險(xiǎn)最小的類別標(biāo)記。A、支持向量機(jī)B、間隔最大化C、線性分類器D、貝葉斯判定準(zhǔn)則答案:D129.大數(shù)據(jù)是指不用隨機(jī)分析法這樣的捷徑,而采用()的方法。A、所有數(shù)據(jù)B、部分?jǐn)?shù)據(jù)C、少量數(shù)據(jù)D、抽樣數(shù)據(jù)答案:A130.通常來說,下面哪種方法能夠用來預(yù)測連續(xù)因變量()A、線性回歸B、邏輯回歸C、線性回歸和邏輯回歸D、以上答案都不正確答案:A131.大數(shù)據(jù)涌現(xiàn)現(xiàn)象的形式有多種,不屬于大數(shù)據(jù)涌現(xiàn)的形式()。A、價(jià)值涌現(xiàn)B、隱私涌現(xiàn)C、物質(zhì)涌現(xiàn)D、隱私涌現(xiàn)答案:C132.pyplot.show()函數(shù)的作用是()。A、展示圖像B、畫直方圖C、保存圖像D、畫散點(diǎn)圖答案:A133.以下不能創(chuàng)建一個字典的語句是()。A、dict1={}B、dict2={3:5}C、dict3={【1,2,3】:“uestc”}D、dict4={(1,2,3):“uestc”}答案:C134.下列不屬于數(shù)據(jù)科學(xué)開源工具的是()。A、MapReduceB、ERPC、HadoopD、Spark答案:B135.數(shù)據(jù)銷毀環(huán)節(jié)的安全技術(shù)措施有通過軟件或物理方式保障磁盤中存儲數(shù)據(jù)的()、不可恢復(fù),如數(shù)據(jù)銷毀軟件、硬盤消磁機(jī)、硬盤粉碎機(jī)等。A、暫時隔離B、暫時刪除C、永久刪除D、不作處理答案:C136.執(zhí)行一個job,如果這個job的輸出路徑已經(jīng)存在,那么程序會()A、覆蓋這個輸出路徑B、拋出警告,但是能夠繼續(xù)執(zhí)行C、拋出一個異常,然后退出D、創(chuàng)建一個新的輸出路徑答案:C137.如果自變量X和因變量Y之間存在高度的非線性和復(fù)雜關(guān)系,那么樹模型很可能優(yōu)于經(jīng)典回歸方法()。A、正確B、錯誤C、無法確定D、模型效果差別不大答案:A138.探索性分析與驗(yàn)證性分析的不同點(diǎn)是()。A、探索性分析需要事先假設(shè)B、探索性分析比驗(yàn)證性分析復(fù)雜C、探索性分析在前D、驗(yàn)證性分析在前答案:C139.不屬于判別式模型的是()。A、決策樹B、BP神經(jīng)網(wǎng)絡(luò)C、支持向量機(jī)D、貝葉斯答案:D140.在比較模型的擬合效果時,甲、乙、丙三個模型的相關(guān)指數(shù)R^2的值分別約為0.71、0.85、0.90,則擬合效果較好的模型是()。A、甲B、乙C、丙D、效果一樣答案:C141.以下選項(xiàng)中,不是Python對文件的打開模式的是()。A、w'B、'+'C、'c'D、'r'答案:C142.【i**iforiinrange(3)】運(yùn)行結(jié)果是()。A、【1,1,4】B、【0,1,4】C、【1,2,3】D、(0,1,4)答案:A143.模塊的定義與導(dǎo)入方法錯誤的是()。A、將寫好的python模塊保存為.py模式的文件??截惖絪ys.path對應(yīng)的文件目錄下,就可以在shell中通過指令導(dǎo)入B、importmodule1【,module2【,...moduleN】】C、frommodnameimportname1【,name2【,...nameN】】D、from*importmodname答案:D144.假如使用邏輯回歸對樣本進(jìn)行分類,得到訓(xùn)練樣本的準(zhǔn)確率和測試樣本的準(zhǔn)確率。現(xiàn)在,在數(shù)據(jù)中增加一個新的特征,其它特征保持不變。然后重新訓(xùn)練測試。則下列說法正確的是()。A、訓(xùn)練樣本準(zhǔn)確率一定會降低B、訓(xùn)練樣本準(zhǔn)確率一定增加或保持不變C、測試樣本準(zhǔn)確率一定會降低D、測試樣本準(zhǔn)確率一定增加或保持不變答案:B145.下列哪個不是RDD的緩存方法()A、persistB、cacheC、MemoryD、以上答案都正確答案:C146.我們建立一個5000個特征,100萬數(shù)據(jù)的機(jī)器學(xué)習(xí)模型.我們怎么有效地應(yīng)對這樣的大數(shù)據(jù)訓(xùn)練()。A、我們隨機(jī)抽取一些樣本,在這些少量樣本之上訓(xùn)練B、我們可以試用在線機(jī)器學(xué)習(xí)算法C、我們應(yīng)用PCA算法降維,減少特征數(shù)D、以上答案都正確答案:D147.深度學(xué)習(xí)是當(dāng)前很熱門的機(jī)器學(xué)習(xí)算法,在深度學(xué)習(xí)中,涉及到大量的矩陣相乘,現(xiàn)在需要計(jì)算三個稠密矩陣A,B,C的乘積ABC,假設(shè)三個矩陣的尺寸分別為m?n,n?p,p?q,且m<n<p<q,以下計(jì)算順序效率最高的是(__)。A、(AB)CB、AC(B)C、A(BC)D、所有效率都相同答案:A148.BP神經(jīng)網(wǎng)絡(luò)具有很的表示能力,它經(jīng)常遭遇(),其訓(xùn)練誤差持續(xù)降低,但測試誤差卻可能上升。A、欠擬合B、誤差過大C、誤差過小D、過擬合答案:D149.下列哪些不是目前機(jī)器學(xué)習(xí)所面臨的問題是()。A、測試集的規(guī)模B、維度災(zāi)難C、特征工程D、過擬合答案:A150.a=【【1.,2.,1.】,【1.,2.,1.】】,a+3的值為()。A、【【1,2,1】,【4,5,4】】B、【【4,5,4】,【4,5,4】】C、【【4,5,4】,【1,2,1】】D、以上答案都不正確答案:D151.以下字符串表示plot線條顏色、點(diǎn)的形狀和類型為紅色五角星點(diǎn)短虛線的是()。A、bs-'B、'go-.'C、'r+-.'D、'r*-.'答案:D152.scipy包中()是數(shù)值積分例程和微分方程求解。A、integrateB、linglgC、sparseD、special答案:A153.在MapReduce中,以下描述錯誤的有()。A、Worker故障和Master故障的處理方法不相同B、Map和Reduce的處理結(jié)果都存儲在本地文件系統(tǒng)C、一個Worker發(fā)生故障時,該節(jié)點(diǎn)上執(zhí)行完的Map任務(wù)需要再次執(zhí)行D、MapReduce具有很強(qiáng)的容錯機(jī)制答案:B154.對于隨機(jī)森林和GBDT,下面說法正確的是()。A、在隨機(jī)森林的單個樹中,樹和樹之間是有依賴的,而GBDT中的單個樹之間是沒有依賴的B、這兩個模型都使用隨機(jī)特征子集,來生成許多單個的樹C、我們可以并行地生成GBDT單個樹,因?yàn)樗鼈冎g是沒有依賴的D、GBDT訓(xùn)練模型的表現(xiàn)總是比隨機(jī)森林好答案:B155.()適合連續(xù)特征,它假設(shè)每個特征對于每個類都符合正態(tài)分布。A、GaussianNBB、BernoulliNBC、MultinomialNBD、BaseDiscreteNB答案:A156.scipy.stats.moment函數(shù)的作用是()。A、隨機(jī)變量的概率密度函數(shù)B、隨機(jī)變量的累積分布函數(shù)C、隨機(jī)變量的生存函數(shù)D、計(jì)算分布的非中心矩答案:D157.下列哪個不屬于常用的文本分類的特征選擇算法()。A、卡方檢驗(yàn)值B、互信息C、信息增益D、主成分分析答案:D158.下列選項(xiàng)中,()是唯一不在運(yùn)行時發(fā)生的異常。A、ZeroDivisionErrorB、NameErrorC、SyntaxErrorD、KeyError答案:C159.以下哪個統(tǒng)計(jì)量可以描述數(shù)據(jù)的集中程度()。A、極差B、標(biāo)準(zhǔn)差C、極大值D、眾數(shù)答案:D160.在數(shù)據(jù)科學(xué)中,通??梢圆捎?)方法有效避免數(shù)據(jù)加工和數(shù)據(jù)備份的偏見。A、A/B測試B、訓(xùn)練集和測試集的劃分C、測試集和驗(yàn)證集的劃分D、圖靈測試答案:A161.下列選項(xiàng)中,用于關(guān)閉文件的方法是()。A、read()B、tell()C、seek()D、close()答案:D162.Numpy中確定隨機(jī)數(shù)生成種子使用以下哪個函數(shù)()。A、np.random()B、np.random.seed()C、np.uniform()D、np.eig()答案:B163.隨機(jī)森林是在()上的一個擴(kuò)展變體。A、BoostingB、AdaBoostC、RFD、Bagging答案:D164.用onehot對某個只有一個屬性的樣本進(jìn)行編碼,下面可能是編碼結(jié)果的是()。A、1010B、1100C、1111D、1000答案:D165.數(shù)據(jù)科學(xué)家可能會同時使用多個算法(模型)進(jìn)行預(yù)測,并且最后把這些算法的結(jié)果集成起來進(jìn)行最后的預(yù)測(集成學(xué)習(xí)),以下對集成學(xué)習(xí)說法正確的是()。A、單個模型之間具有高相關(guān)性B、單個模型之間具有低相關(guān)性C、在集成學(xué)習(xí)中使用“平均權(quán)重”而不是“投票”會比較好D、單個模型都是用的一個算法答案:B166.利用函數(shù)自動創(chuàng)建數(shù)組不包括以下哪個函數(shù)()。A、arange()B、ones()C、linspace()D、dtype()答案:D167.數(shù)據(jù)倉庫的最終目的是()。A、收集業(yè)務(wù)需求B、建立數(shù)據(jù)倉庫邏輯模型C、開發(fā)數(shù)據(jù)倉庫的應(yīng)用分析D、為用戶和業(yè)務(wù)部門提供決策支持答案:D168.假設(shè)一個線性回歸模型完美適合訓(xùn)練數(shù)據(jù)(訓(xùn)練誤差為0),下面那個說法是正確的()。A、測試集誤差一直為0B、測試集誤差可能為0C、測試集誤差不會為0D、以上都不對答案:B169.scipy.stats模塊中對隨機(jī)變量進(jìn)行隨機(jī)取值的函數(shù)是()。A、rvsB、pdfC、cdfD、sf答案:A170.以下關(guān)于代碼規(guī)范描述,哪些是錯誤的()。A、類總是使用駝峰格式命名,即所有單詞首字母大寫其余字母小寫。B、除特殊模塊__init__之外,模塊名稱都使用不帶下劃線的小寫字母。C、不要濫用*args和**kwargsD、建議把所有方法都放在一個類中答案:D171.下列核函數(shù)特性描述錯誤的是()。A、只要一個對稱函數(shù)所對應(yīng)的核矩陣半正定,就能稱為核函數(shù);B、核函數(shù)選擇作為支持向量機(jī)的最大變數(shù);C、核函數(shù)將影響支持向量機(jī)的性能;D、核函數(shù)是一種降維模型;答案:D172.下列不是數(shù)據(jù)科學(xué)項(xiàng)目的主要角色()。A、項(xiàng)目發(fā)起人B、項(xiàng)目經(jīng)理C、操作人員D、驗(yàn)收人員答案:D173.在MapReduce中,為了發(fā)現(xiàn)Worker故障,Master周期性進(jìn)行(__)操作。A、JoinB、PingC、CheckD、Connect答案:B174.若建立一個5000個特征,100萬數(shù)據(jù)的機(jī)器學(xué)習(xí)模型,則應(yīng)該怎么有效地應(yīng)對這樣的大數(shù)據(jù)訓(xùn)練()。A、隨機(jī)抽取一些樣本,在這些少量樣本之上訓(xùn)練B、可以試用在線機(jī)器學(xué)習(xí)算法C、應(yīng)用PCA算法降維,減少特征數(shù)D、以上答案都正確答案:D175.KNN最近鄰分類算法的過程()1.計(jì)算訓(xùn)練樣本和測試樣本中每個樣本點(diǎn)的距離(常見的距離度量有歐式距離,馬氏距離等);2.對上面所有的距離值進(jìn)行排序;3.選前k個最小距離的樣本;4.根據(jù)這k個樣本的標(biāo)簽進(jìn)行投票,得到最后的分類類別。A、B、C、D、答案:C176.連續(xù)不斷地爬取網(wǎng)頁信息,較容易被網(wǎng)站識別,想要實(shí)現(xiàn)間隔15s來爬取網(wǎng)頁需要使用以下哪一項(xiàng)指令()。A、timestop(5)B、timesleep(15)C、timestrptime(15)D、timesleep(5)答案:B177.考慮某個具體問題時,你可能只有少量數(shù)據(jù)來解決這個問題。不過幸運(yùn)的是你有一個類似問題已經(jīng)預(yù)先訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)??梢杂孟旅婺姆N方法來利用這個預(yù)先訓(xùn)練好的網(wǎng)絡(luò)()A、把除了最后一層外所有的層都凍住,重新訓(xùn)練最后一層B、對新數(shù)據(jù)重新訓(xùn)練整個模型C、只對最后幾層進(jìn)行調(diào)參(finetune)D、對每一層模型進(jìn)行評估,選擇其中的少數(shù)來用答案:C178.選擇哪一個解作為輸出,將由學(xué)習(xí)算法的歸納偏好決定,常見的做法是引入()。A、線性回歸B、線性判別分析C、正則化項(xiàng)D、偏置項(xiàng)答案:C179.()的基本想法是適當(dāng)考慮一部分屬性間的相互依賴信息,從而既不需要進(jìn)行完全聯(lián)合概率計(jì)算,又不至于徹底忽略了比較強(qiáng)的屬性依賴關(guān)系。A、貝葉斯判定準(zhǔn)則B、貝葉斯決策論C、樸素貝葉斯分類器D、半樸素貝葉斯分類器答案:D180.下列關(guān)于Python中的函數(shù)的說法,正確的是()。A、函數(shù)用關(guān)鍵字function定義B、函數(shù)定義時,函數(shù)的主體內(nèi)容應(yīng)與定義語句開頭對齊C、polynomial(x=1,2,z=3)的傳遞參數(shù)的方法是正確的D、默認(rèn)參數(shù)值可以在傳遞參數(shù)時修改答案:D181.Hadoop中partition()函數(shù)描述正確的是()。A、分區(qū)函數(shù)B、特征函數(shù)C、算法函數(shù)D、排序函數(shù)答案:A182.回歸方程判定系數(shù)的計(jì)算公式R^2=SSR/SST=1-SSE/SST,對判定系數(shù)描述錯誤的是()。A、式中的SSE指殘差平方和B、式中的SSR指總離差平方和C、判定系數(shù)用來衡量回歸方程的擾合優(yōu)度D、判定系數(shù)R^2等于相關(guān)系數(shù)的平方答案:B183.把圖像分割問題與圖的最小割(mincut)問題相關(guān)聯(lián)的方法是()。A、基于圖論的分割方法B、分水嶺算法C、SLIC算法D、基于閾值的方法答案:A184.機(jī)器學(xué)習(xí)中發(fā)生過擬合的主要原因不包括()。A、使用過于復(fù)雜的模型B、數(shù)據(jù)噪聲較大C、訓(xùn)練數(shù)據(jù)少D、訓(xùn)練數(shù)據(jù)充足答案:D185.txt=open(filename)返回的是()。A、變量B、常數(shù)C、文件內(nèi)容D、文件對象答案:D186.np.sort()函數(shù)返回的是()。A、已排序的原數(shù)組B、排好序的數(shù)組拷貝C、原數(shù)組D、原數(shù)組的拷貝答案:B187..python字體切片時(S【0,10】)下標(biāo)的取值范圍為()。A、【0,10】B、(0,10)C、【0,10)D、(0,10】答案:C188.MapReduce使用()來記錄不同事件的發(fā)生次數(shù)。A、日志B、事件觸發(fā)器C、狀態(tài)列表D、計(jì)數(shù)器答案:D189.不屬于Mayer-Sch?nbergerV和CukierK.在其著名論著《Bigdata:Arevolutionthatwilltransformhowwelive,work,andthink》中提出了大數(shù)據(jù)時代統(tǒng)計(jì)的思維變革的是()。A、不是隨機(jī)樣本,而是全體數(shù)據(jù)B、不是精確性,而是混雜性C、不是描述性分析,而是預(yù)測性分析D、不是因果關(guān)系,而是相關(guān)關(guān)系答案:C190.可分解為偏差、方差與噪聲之和的是()。A、訓(xùn)練誤差(trainingerror)B、經(jīng)驗(yàn)誤差(empiricalerror)C、均方誤差(meansquarederror)D、泛化誤差(generalizationerror)答案:D191.循環(huán)神經(jīng)網(wǎng)絡(luò)適合處理什么數(shù)據(jù)()A、節(jié)點(diǎn)數(shù)據(jù)B、序列數(shù)據(jù)C、結(jié)構(gòu)化數(shù)據(jù)D、圖像數(shù)據(jù)答案:B192.以下輸出的結(jié)果正確的是()。ImportnumpyasnpX=np.arange(32).reshape((8,4))Print(x【【-4,-2,-1,-7】】)A、【【16171819】【24252627】【28293031】【4567】】B、【【16171819】【891011】【4567】【28293031】C、【【891011】【4567】】D、error答案:A193.Numpy包中meshgrid函數(shù)實(shí)現(xiàn)的功能是()。A、數(shù)組拆分B、數(shù)組乘法C、數(shù)組除法D、數(shù)組融合答案:D194.后剪枝是先從訓(xùn)練集生成一顆完整的決策樹,然后()對非葉結(jié)點(diǎn)進(jìn)行考察。A、自上而下B、在劃分前C、禁止分支展開D、自底向上答案:D195.在著名管理學(xué)家ThomasH,Davernport在《哈佛商業(yè)論壇》上發(fā)表的題為《第三代分析學(xué)(Analytics3.0)》的經(jīng)典論文中,Analytics3.0時代是指()。A、商務(wù)智能時代B、大數(shù)據(jù)時代C、數(shù)據(jù)富足供給時代D、數(shù)據(jù)智能時代答案:C196.關(guān)于混合模型聚類算法的優(yōu)缺點(diǎn),下面說法正確的是()。A、當(dāng)簇只包含少量數(shù)據(jù)點(diǎn),或者數(shù)據(jù)點(diǎn)近似協(xié)線性時,混合模型也能很好地處理B、混合模型很難發(fā)現(xiàn)不同大小和橢球形狀的簇C、混合模型比K均值或模糊c均值更一般,因?yàn)樗梢允褂酶鞣N類型的分布D、混合模型在有噪聲和離群點(diǎn)時不會存在問題答案:C197.ggplot2的核心理念是()。A、繪圖與數(shù)據(jù)分離B、結(jié)構(gòu)與數(shù)據(jù)分離C、繪圖與結(jié)構(gòu)分離D、繪圖與數(shù)據(jù)和結(jié)構(gòu)分離答案:A198.通常,()主要指的是關(guān)系數(shù)據(jù)庫中存儲、計(jì)算和管理的數(shù)據(jù)。A、結(jié)構(gòu)化數(shù)據(jù)B、海量數(shù)據(jù)C、半結(jié)構(gòu)化數(shù)據(jù)D、非結(jié)構(gòu)化數(shù)據(jù)答案:A199.大數(shù)據(jù)參考架構(gòu)的水平軸和垂直軸分別為()。A、信息(活動)價(jià)值鏈和信息技術(shù)價(jià)值鏈B、信息技術(shù)價(jià)值鏈和信息(活動)價(jià)值鏈C、信息交互價(jià)值鏈和信息技術(shù)價(jià)值鏈D、信息(活動)價(jià)值鏈和信息交互價(jià)值鏈答案:A200.如果在大型數(shù)據(jù)集上訓(xùn)練決策樹。為了花費(fèi)更少的時間來訓(xùn)練這個模型,下列哪種做法是正確的()A、增加樹的深度B、增加學(xué)習(xí)率C、減小樹的深度D、減少樹的數(shù)量答案:C201.線性回歸的基本假設(shè)不包括哪個()。A、隨機(jī)誤差項(xiàng)是一個期望值為0的隨機(jī)變量B、對于解釋變量的所有觀測值,隨機(jī)誤差項(xiàng)有相同的方差C、隨機(jī)誤差項(xiàng)彼此相關(guān)D、解釋變量是確定性變量不是隨機(jī)變量,與隨機(jī)誤差項(xiàng)之間相互獨(dú)立答案:C202.bootstrap數(shù)據(jù)是什么意思()。A、有放回地從總共M個特征中抽樣m個特征B、無放回地從總共M個特征中抽樣m個特征C、有放回地從總共N個樣本中抽樣n個樣本D、無放回地從總共N個樣本中抽樣n個樣本答案:C203.以下關(guān)于連接數(shù)組不正確的是()。A、concatenate連接沿現(xiàn)有軸的數(shù)組序列B、stack沿著新的軸加入一系列數(shù)組。C、vstack水平堆疊序列中的數(shù)組(列方向)D、hstack3D堆疊序列中的數(shù)組(行方向)答案:D204.執(zhí)行以下代碼段Motorcycles=【'honda','yamaha','suzuki'】Motorcycles.append('ducati')Motorcycles.pop(1)Print(motorcycles)時,輸出為()。A、【'honda','yamaha','suzuki'】B、【'yamaha','suzuki','ducati'】C、【'honda','yamaha','suzuki','ducati'】D、【'honda','suzuki','ducati'】答案:D205.以下說法正確的是:()。A、一個機(jī)器學(xué)習(xí)模型,如果有較高準(zhǔn)確率,總是說明這個分類器是好的B、如果增加模型復(fù)雜度,那么模型的測試錯誤率總是會降低C、如果增加模型復(fù)雜度,那么模型的訓(xùn)練錯誤率總是會降低答案:C206.下面代碼運(yùn)行后,a,b,c,d四個變量的值,描述錯誤的是()。ImportcopyA=【1,2,3,4,【'a','b'】】B=aC=copy.copy(a)D=copy.deepcopy(a)A.append(5)A【4】.append('c')A、a==【1,2,3,4,【'a','b','c'】,5】B、b==【1,2,3,4,【'a','b','c'】,5】C、c==【1,2,3,4,【'a','b','c'】】D、d==【1,2,3,4,【'a','b',‘c’】】答案:D207.如果規(guī)則集R中不存在兩條規(guī)則被同一條記錄觸發(fā),則稱規(guī)則集R中的規(guī)則為()。A、無序規(guī)則B、窮舉規(guī)則C、互斥規(guī)則D、有序規(guī)則答案:C208.Hadoop中,Reducer的三個階段是__。A、Shuffle-Sort-ReduceB、Shuffle-Reduce-SortC、Reduce-Shuffle-SortD、Sort-Shuffle-Reduce答案:A209.以下處理能獲得像素級標(biāo)注的是()。A、圖像分類B、物體檢測C、圖像去噪D、語義分割答案:D210.以下屬于深度學(xué)習(xí)框架的是(__)。A、TensorflowB、CaffeC、PyTorchD、以上答案都正確答案:D211.sklearn.deposition.PCA()方法的作用是()。A、因子分析B、主成分分析C、稀疏編碼D、唯一編碼答案:B212.使用pivot_table函數(shù)制作透視表用以下那個參數(shù)設(shè)置行分組鍵()。A、indexB、rawC、valuesD、data答案:A213.AUC是衡量()模型優(yōu)劣的一種評價(jià)指標(biāo)。A、回歸B、分類C、二分類D、聚類答案:C214.一監(jiān)獄人臉識別準(zhǔn)入系統(tǒng)用來識別待進(jìn)入人員的身份,此系統(tǒng)一共包括識別4種不同的人員:獄警,小偷,送餐員,其他人員。下面哪種學(xué)習(xí)方法最適合此種應(yīng)用需求()A、二分類問題B、層次聚類問題C、多分類問題D、回歸問題答案:C215.以下不是開源工具特點(diǎn)的是()。A、免費(fèi)B、可以直接獲取源代碼C、用戶可以修改源代碼并不加說明用于自己的軟件中D、開源工具一樣具有版權(quán)答案:C216.在神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)中,感知機(jī)輸出層中的M-P神經(jīng)元通常被稱為()。A、閾值邏輯單元B、激活函數(shù)C、擠壓函數(shù)D、連接函數(shù)答案:A217.在python3中以下安裝第三方模塊命令正確的是()。A、pip-installsklearnB、pipinstallsklearnC、pip–upgragesklearnD、pip-isklearn答案:B218.關(guān)于數(shù)據(jù)相關(guān)性,以下說法錯誤的是()。A、關(guān)性體現(xiàn)了大數(shù)據(jù)的靈魂B、關(guān)性思維實(shí)現(xiàn)了從“為什么”到“是什么”的思維轉(zhuǎn)變C、關(guān)性關(guān)注事物的因果關(guān)系D、關(guān)性關(guān)注事物的相關(guān)關(guān)系答案:C219.在TF-IDF算法中,在計(jì)算完詞頻與逆文檔頻率后,將二者()后得到最終的結(jié)果。A、相加B、相減C、相乘D、相除答案:C220.以下哪個分類方法可以較好地避免樣本的不平衡問題()。A、KNNB、SVMC、BayesD、神經(jīng)網(wǎng)絡(luò)答案:A221.假設(shè)我們使用原始的非線性可分版本的Soft-SVM優(yōu)化目標(biāo)函數(shù)。我們需要做什么來保證得到的模型是線性可分離的()A、C=0B、C=1C、C正無窮大D、C負(fù)無窮大答案:C222.下面與Zookeeper類似的框架是()。A、ProtobufB、JavaC、KafkaD、Chubby答案:D223.機(jī)器學(xué)習(xí)中L1正則化和L2正則化的區(qū)別是()。A、使用L1可以得到稀疏的權(quán)值,使用L2可以得到平滑的權(quán)值B、使用L1可以得到平滑的權(quán)值,使用L2可以得到平滑的權(quán)值C、使用L1可以得到平滑的權(quán)值,使用L2可以得到稀疏的權(quán)值D、使用L1可以得到稀疏的權(quán)值,使用L2可以得到稀疏的權(quán)值答案:A224.K折交叉驗(yàn)證器是以下哪個方法()。A、model_selection.GroupKFold()B、model_selection.GroupShuffleSplit()C、model_selection.KFold()D、model_selection.RepeatedKFold()答案:C225.最早被提出的循環(huán)神經(jīng)網(wǎng)絡(luò)門控算法是什么()A、長短期記憶網(wǎng)絡(luò)B、門控循環(huán)單元網(wǎng)絡(luò)C、堆疊循環(huán)神經(jīng)網(wǎng)絡(luò)D、雙向循環(huán)神經(jīng)網(wǎng)絡(luò)答案:A226.以下關(guān)于DNN說法不正確的是(__)。A、層數(shù)多B、抽象能力強(qiáng)C、模擬更復(fù)雜模型D、廣義上包含CNN,DBN,SVM等答案:D227.Numpy庫的主要功能是()。A、科學(xué)計(jì)算B、繪圖C、爬取網(wǎng)站數(shù)據(jù)、提取結(jié)構(gòu)性數(shù)據(jù)D、機(jī)器學(xué)習(xí)庫答案:A228.以下哪種不是Hive支持的數(shù)據(jù)類型()A、StructB、IntC、MapD、Long答案:D229.關(guān)于HDFS的特征,下列說法錯誤的是()。A、支持超大文件B、基于商用硬件C、流式數(shù)據(jù)訪問D、低吞吐量答案:D230.使用Numpy讀取csv文件應(yīng)使用以下哪個函數(shù)()。A、save()B、read_csv()C、loadtxt()D、open()答案:C231.關(guān)于Python語言的特點(diǎn),以下選項(xiàng)中描述錯誤的是()。A、Python語言是非開源語言B、Python語言是跨平臺語言C、Python語言是多模型語言D、Python語言是腳本語言答案:A232.構(gòu)造了一個詞表:{1.小明2.喜歡3.踢4.看5.足球6.籃球7.電影},利用上述詞表的索引號,文檔{小明喜歡踢足球}可以用一個7維向量表示為()。A、【1101001】B、【1111111】C、【1111100】D、【1110100】答案:D233.下列選項(xiàng)中,用于觸發(fā)異常的是()。A、tryB、catchC、raiseD、except答案:C234.Numpy不支持以下哪種數(shù)據(jù)類型()。A、float32B、uint64C、boolD、byte答案:D235.下面哪項(xiàng)不屬于循環(huán)神經(jīng)網(wǎng)絡(luò)的輸出模式。(__)A、單輸出B、多輸出C、同步多輸出D、異步多輸出答案:C236.在Hadoop生態(tài)系統(tǒng)中,()可以將結(jié)構(gòu)化的數(shù)據(jù)文件映射成一張數(shù)據(jù)庫表,并提供簡單的查詢語言。A、PigB、HbaseC、HiveD、MapReduce答案:C237.建立一個詞典【Alex,wants,to,go,play,football,shopping】,下面的句子:Alexwantstogotoplayfootball可以用向量表示為()。A、【1,1,2,1,1,1,0】B、【1,1,2,1,1,1】C、【1,1,1,1,1,1,0】D、【1,1,1,1,1,1,1】答案:A238.Hadoop中biner()函數(shù)的功能是()。A、數(shù)據(jù)排序B、數(shù)據(jù)標(biāo)記C、數(shù)據(jù)分析D、數(shù)據(jù)合并答案:D239.ZooKeeper的特點(diǎn)描述錯誤的是()。A、復(fù)雜性B、自我復(fù)制C、順序訪問D、高速讀取答案:A240.()是Scikit-Learn中的支持向量機(jī)模塊。A、MinBatchKMeansB、SVCC、LinearRegressionD、Regression答案:B241.變量的不確定性越大,相對應(yīng)信息熵有什么變化()。A、熵變小B、熵變大C、不變D、以上答案都不正確答案:B242.以下不屬于基于區(qū)域的圖像分割方法的是()。A、區(qū)域生長法B、分水嶺算法C、大津算法D、基于圖論的分割算法答案:C243.正確導(dǎo)入日期模塊的語句()。A、importdateB、importdatetimeC、importtimeD、importdate_time答案:B244.以下使用其本身可以達(dá)成數(shù)據(jù)透視功能的函數(shù)是()。A、groupbyB、transformC、crosstabD、pivot_table答案:D245.下面哪個色彩空間最接近人的視覺系統(tǒng)的特點(diǎn)()。A、RGB空間B、CMY空間C、CMYK空間D、HSI空間答案:D246.matplotlib中的barh函數(shù)可以繪制()圖。A、直方圖B、餅圖C、條形圖D、氣泡圖答案:C247.np.linalg.svd()函數(shù)可以實(shí)現(xiàn)()功能。A、計(jì)算協(xié)方差矩陣B、實(shí)現(xiàn)奇異值分解C、計(jì)算方差D、計(jì)算均值;答案:B248.下列關(guān)于數(shù)據(jù)科學(xué)流程與方法的描述中,錯誤的是()。A、數(shù)據(jù)科學(xué)的基本流程包括數(shù)據(jù)化、數(shù)據(jù)加工(DataWrangling或DataMunging)、數(shù)據(jù)規(guī)整化、探索性分析、數(shù)據(jù)分析與洞見、結(jié)果展現(xiàn)以及數(shù)據(jù)產(chǎn)品的提供B、對于數(shù)據(jù)形態(tài)不符合要求的亂數(shù)據(jù),要通過清洗成為規(guī)整數(shù)據(jù)C、數(shù)據(jù)分析包括描述性分析、診斷性分析、預(yù)測性分析和規(guī)范性分析D、數(shù)據(jù)可視化會遇到視覺假象問題,人眼對亮度和顏色的相對判斷容易造成視覺假象答案:B249.下列對于等距離散化和等頻離散化的敘述中,不正確的是()。A、等距離散化是將連續(xù)型特征的取值區(qū)間均勻的劃分成多個區(qū)間段B、等距離散化對數(shù)據(jù)離群值不敏感C、等頻離散化考慮了區(qū)間段中的樣本個數(shù),使每個區(qū)間段的樣本數(shù)相同D、等頻離散化會將相似的樣本劃分到不同的區(qū)間答案:B250.根據(jù)數(shù)據(jù)管理計(jì)劃,設(shè)計(jì)或選擇具體方法實(shí)行計(jì)劃中的工作內(nèi)容,屬于數(shù)據(jù)治理的哪一步()。A、計(jì)劃B、執(zhí)行C、檢查D、改進(jìn)答案:B251.matplotlib中的legend函數(shù)作用是什么()。A、設(shè)置標(biāo)簽文本B、繪制網(wǎng)格線C、標(biāo)示不同圖形的文本標(biāo)簽圖例D、設(shè)置x軸的數(shù)值顯示范圍答案:C252.從數(shù)據(jù)到智慧的轉(zhuǎn)換依次遞進(jìn)過程是()。A、數(shù)據(jù)、知識、信息、理解、智慧B、數(shù)據(jù)、信息、理解、知識、智慧C、數(shù)據(jù)、信息、知識、理解、智慧D、數(shù)據(jù)、理解、信息、知識、智慧答案:C253.下列不屬于數(shù)據(jù)科學(xué)跨平臺基礎(chǔ)設(shè)施和分析工具的是()。A、微軟AzureB、Google云平臺C、阿里云D、Adobephotoshop答案:D254.下面哪個程序負(fù)責(zé)HDFS數(shù)據(jù)存儲()A、NameNodeB、JobtrackerC、DatanodeD、secondaryNameNode答案:C255.a=np.arange(24).reshape(2,3,4)的輸出結(jié)果為()數(shù)據(jù)。A、一維B、二維C、三維D、四維答案:C256.如何使用pyplot創(chuàng)建一個新圖()。A、pyplot.figimage()B、pyplot.figure()C、pyplot.figtext()D、pyplot.figlegend()答案:B257.三維以上數(shù)組是以()的形式輸出的。A、按行輸出B、按矩陣輸出C、按矩陣列表輸出D、按字符串輸出答案:C258.反轉(zhuǎn)二維數(shù)組arr的行arr=np.arange(9).reshape(3,3)A、arr【::-1】B、arr【::-2】C、arr【::1】D、arr【::0】答案:A259.a=【1,2,3.4,5】,切片時如果要取【2,3.4】,正確的選項(xiàng)是()。A、a【1:4】B、a【-2:】C、a【1:-1】D、a【::2】答案:C260.訓(xùn)練樣本集S含有天氣、氣溫、人體感受、風(fēng)力4個指標(biāo),已知天氣的熵為0.694,溫度的熵為0.859,人體感受的熵為0.952,風(fēng)力的熵為0.971,如使用ID3算法,選擇()為樹模型的分界點(diǎn)。A、天氣B、氣溫C、人體感受D、風(fēng)力答案:A261.以下選項(xiàng)中說法不正確的是()。A、解釋是將源代碼逐條轉(zhuǎn)換成目標(biāo)代碼同時逐條運(yùn)行目標(biāo)代碼的過程B、編譯是將源代碼轉(zhuǎn)換成目標(biāo)代碼的過程C、C語言是靜態(tài)語言,Python語言是腳本語言D、靜態(tài)語言采用解釋方式執(zhí)行,腳本語言采用編譯方式執(zhí)行答案:D262.對MapReduce計(jì)算框架中生成的鍵值對的說法正確的是(__)。A、可以有相同的鍵,值必須唯一;B、可以有相同的值,鍵必須唯一;C、可以有相同的鍵,也可以有相同的值;D、鍵和值都必須唯一;答案:C263.長短時記憶神經(jīng)網(wǎng)絡(luò)被設(shè)計(jì)用來解決什么問題()A、傳統(tǒng)RNN存在的梯度消失/爆炸問題B、傳統(tǒng)RNN計(jì)算量大的問題C、傳統(tǒng)RNN速度較慢的問題D、傳統(tǒng)RNN容易過過擬合的問題答案:A264.以下表述正確的是()。A、if語句總是與else成對出現(xiàn)B、if語句總是與elif成對出現(xiàn)C、if語句分支嵌套實(shí)現(xiàn)多分支D、if語句只能實(shí)現(xiàn)二分支答案:C265.df.tail()這個函數(shù)是用來()。A、用來創(chuàng)建數(shù)據(jù)B、用來展現(xiàn)數(shù)據(jù)C、用來分析數(shù)據(jù)D、用來刪除數(shù)據(jù)答案:B266.geoplot是()庫和()庫的擴(kuò)展。A、cartopy和seabornB、seaborn和matplotlibC、cartopy和matplotlibD、matplotlib和ggplot2答案:C267.下列關(guān)于聚類挖掘技術(shù)的說法中,錯誤的是()。A、不預(yù)先設(shè)定數(shù)據(jù)歸類類目,完全根據(jù)數(shù)據(jù)本身性質(zhì)將數(shù)據(jù)聚合成不同類別B、要求同類數(shù)據(jù)的內(nèi)容相似度盡可能小C、要求不同類數(shù)據(jù)的內(nèi)容相似度盡可能小D、與分類挖掘技術(shù)相似的是,都是要對數(shù)據(jù)進(jìn)行分類處理答案:B268.()是指具有體量大、來源多樣、生成極快、且多變等特征并且難以用傳統(tǒng)數(shù)據(jù)體系機(jī)構(gòu)有效處理的包含大量數(shù)據(jù)集的數(shù)據(jù)。A、海量數(shù)據(jù)B、大數(shù)據(jù)C、厚數(shù)據(jù)D、異構(gòu)數(shù)據(jù)答案:B269.以下哪一個不是長短時記憶神經(jīng)網(wǎng)絡(luò)三個門中中的一個門()A、輸入門B、輸出門C、遺忘門D、進(jìn)化門答案:D270.下列關(guān)于計(jì)算機(jī)存儲容量單位的說法中,錯誤的是()。A、1KB<1MB<1GBB、基本單位是字節(jié)(Byte)C、一個漢字需要一個字節(jié)的存儲空間D、一個字節(jié)能夠容納一個英文字符答案:C271.由于不同類別的關(guān)鍵詞對排序的貢獻(xiàn)不同,檢索算法一般把查詢關(guān)鍵詞分為幾類,以下哪一類不屬于此關(guān)鍵詞類型的是()。A、引用詞B、普通關(guān)鍵詞C、高頻詞匯D、擴(kuò)展關(guān)鍵詞答案:C272.采樣分析的精確性隨著采樣隨機(jī)性的增加而(),但與樣本數(shù)量的增加關(guān)系不大。A、降低B、不變C、提高D、無關(guān)答案:C273.scipy.stats模塊中累積分布的反函數(shù)是()。A、pdfB、ppfC、rvsD、sf答案:B274.()不僅可用于多層前饋神經(jīng)網(wǎng)絡(luò),還可用于其他類型的神經(jīng)網(wǎng)絡(luò)。A、感知機(jī)B、神經(jīng)元C、神經(jīng)系統(tǒng)D、誤差逆?zhèn)鞑ゴ鸢福篋275.中心極限定理是噪聲抑制的中的統(tǒng)計(jì)原理,其內(nèi)容是:均值分布總會收斂于一個()。A、正態(tài)分布B、泊松分布C、多項(xiàng)式分布D、均值分布答案:A276.Hadoop默認(rèn)對3個副本的存放策略是()A、第一個副本存放在client所在的datanode中——》第二個副本存放在與第一個副本不同機(jī)架的隨機(jī)datanode中——》第三個副本存放在與第二個副本同機(jī)架的不同datanode中;B、第一個副本存放在client所在的datanode中——》第二個副本存放在與第一個副本同機(jī)架的不同datanode中——》第三個副本存放在與第一個副本不同機(jī)架的隨機(jī)datanode中;C、第一個副本存放在隨機(jī)datanode中——》第二個副本存放在與第一個副本同機(jī)架的不同datanode中——》第三個副本存放在與第一個副本不同機(jī)架的隨機(jī)datanode中;D、第一個副本存放在隨機(jī)datanode中——》第二個副本存放在與第一個副本不同機(jī)架的隨機(jī)datanode中——》第三個副本存放在與第一個副本同機(jī)架的不同datanode中;答案:A277.視覺通道表現(xiàn)力評價(jià)指標(biāo)不包括()。A、精確性B、可辨認(rèn)性C、可分離性D、可轉(zhuǎn)換性答案:D278.pyplot.title()的作用是()。A、繪制垂直線B、為圖設(shè)置標(biāo)題C、為圖添加文本D、繪制互相關(guān)答案:B279.TF-IDF中的TF是指()。A、某個詞在文檔中出現(xiàn)的次數(shù)B、文章的總次數(shù)C、某個詞在文檔中出現(xiàn)的次數(shù)/文章的總次數(shù)D、以上答案都不正確答案:C280.plt.plot()函數(shù)的功能是()。A、展現(xiàn)變量的趨勢變化B、尋找變量之間的關(guān)系C、設(shè)置x軸的數(shù)值顯示范圍D、設(shè)置x軸的標(biāo)簽文本答案:A281.下列哪一種架構(gòu)有反饋連接(__)。A、循環(huán)神經(jīng)網(wǎng)絡(luò)B、卷積神經(jīng)網(wǎng)絡(luò)C、受限玻爾茲曼機(jī)D、都不是答案:A282.以下選項(xiàng)中Python用于異常處理結(jié)構(gòu)中用來捕獲特定類型的異常的保留字是()。A、exceptB、doC、passD、while答案:A283.執(zhí)行以下代碼段Print(bool('False'))Print(bool())時,輸出為()。A、TrueTrueB、TrueFalseC、FalseTrueD、FalseFalse答案:B284.關(guān)于random.uniform(a,b)的作用描述,以下選項(xiàng)中正確的是()。A、生成一個均值為a,方差為b的正態(tài)分布B、生成一個(a,b)之間的隨機(jī)數(shù)C、生成一個【a,b】之間的隨機(jī)整數(shù)D、生成一個【a,b】之間的隨機(jī)小數(shù)答案:D285.在MapReduce中,以下描述中錯誤的是()。A、經(jīng)過map()函數(shù)的計(jì)算可以得出一個中間數(shù)據(jù)集B、map()函數(shù)是確定的,用戶不可自定義C、對map()函數(shù)的返回值,進(jìn)行一定的處理后才進(jìn)入下個階段D、map()函數(shù)的輸入輸出都是同一數(shù)據(jù)結(jié)構(gòu)答案:B286.假定你現(xiàn)在訓(xùn)練了一個線性SVM并推斷出這個模型出現(xiàn)了欠擬合現(xiàn)象,在下一次訓(xùn)練時,應(yīng)該采取下列什么措施()A、增加數(shù)據(jù)點(diǎn)B、減少數(shù)據(jù)點(diǎn)C、增加特征D、減少特征答案:C287.()算法是一種最有影響的挖掘關(guān)聯(lián)規(guī)則頻繁項(xiàng)目集的算法。A、FP-growthB、EClatC、聚類D、Apdori答案:D288.以下哪種方法不屬于特征選擇的標(biāo)準(zhǔn)方法:()。A、嵌入B、過濾C、包裝D、抽樣答案:D289.在一個簡單的線性回歸模型中(只有一個變量),如果將輸入變量改變一個單位(增加或減少),那么輸出將改變多少()A、一個單位B、不變C、截距D、回歸模型的尺度因子答案:D290.下列關(guān)于文本分類的說法不正確的是()A、文本分類是指按照預(yù)先定義的主題類別,由計(jì)算機(jī)自動地為文檔集合中的每個文檔確定一個類別B、文本分類大致可分為基于知識工程的分類系統(tǒng)和基于機(jī)器學(xué)習(xí)的分類系統(tǒng)C、文本的向量形式一般基于詞袋模型構(gòu)建,該模型考慮了文本詞語的行文順序D、構(gòu)建文本的向量形式可以歸結(jié)為文本的特征選擇與特征權(quán)重計(jì)算兩個步驟答案:C291.語句np.random.randn(5,4)的運(yùn)算結(jié)果是()。A、生成一個5行4列的隨機(jī)矩陣B、將矩陣的第5行第4列改成一個隨機(jī)值C、將矩

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論