2024年知識競賽-大數(shù)據(jù)智能辦公系統(tǒng)知識考試近5年真題附答案_第1頁
2024年知識競賽-大數(shù)據(jù)智能辦公系統(tǒng)知識考試近5年真題附答案_第2頁
2024年知識競賽-大數(shù)據(jù)智能辦公系統(tǒng)知識考試近5年真題附答案_第3頁
2024年知識競賽-大數(shù)據(jù)智能辦公系統(tǒng)知識考試近5年真題附答案_第4頁
2024年知識競賽-大數(shù)據(jù)智能辦公系統(tǒng)知識考試近5年真題附答案_第5頁
已閱讀5頁,還剩18頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

(圖片大小可自由調(diào)整)2024年知識競賽-大數(shù)據(jù)智能辦公系統(tǒng)知識考試近5年真題薈萃附答案第I卷一.參考題庫(共100題)1.在scala中的模式匹配可以匹配哪些類型()A、通配符匹配B、常量匹配C、變量匹配D、構(gòu)造函數(shù)匹配等2.flume在讀取文本文件的時候,一個文本數(shù)據(jù)是一個?()A、agentB、eventC、sourceD、float3.下面哪個端口不是spark自帶服務(wù)的端口()A、8080B、8090C、18080D、40404.spark中的action算子的特性是()A、懶執(zhí)行B、立即執(zhí)行C、一致性D、冗余性5.Flume中配置一個Agent,需要配置的有哪些?()A、配置sourceB、配置sinkC、配置channelD、將source、channel、sink連接起來6.有關(guān)flume是什么說法正確的是()A、消息中間件B、日志收集系統(tǒng)C、緩沖組件D、以上都不對7.scala中的Object中通常在里面放一些靜態(tài)的()A、FieldB、MethodC、管理塊服務(wù)器D、Source8.maven項目是通過pom.xml文件來進行依賴jar包的加載的9.Set集合是無序不重復(fù)的集合10.reduceRight通過如下程序塊其輸出結(jié)果為varlist=List(1,2,99,4,100)varjs=list.reduceRight(_max_println(js)()A、$1B、100C、206D、以上答案都不對11.SparkStreaming有高吞吐量和容錯能力強等特點12.Scala關(guān)于變量定義、賦值,錯誤的是?()A、vala=3B、vala:String=3C、varb:Int=3;b=6D、varb="HelloWorld!";b="123"13.以下組件中和mesos相類似的組件是哪個()A、yarnB、hdfsC、mapreduceD、以上都不對14.spark切分完的partition的大小必須和block一致15.對于以下2個列表的操作,下面那些說法說法正確vart=List(1,2,3)vart2=List(4,5)()A、vart3=t++t2得到List(1,2,3,4,5)B、vart3=List.concat(t,t2)得到List(1,2,3,4,5)C、vart3=t:::t2得到List(1,2,3,4,5)D、vart3=t.:::(t2)得到List(4,5,1,2,3,)16.flatMap類似于map,但是每一個輸入元素可以被映射為0或多個輸出元素(所以func應(yīng)該返回一個序列,而不是單一元素),所有元素會被壓癟17.Linux中重啟系統(tǒng)的指令有哪些()A、rebootB、haltC、shutdown-rD、shutdown-h18.spark架構(gòu)中哪些架構(gòu)可以相互轉(zhuǎn)化()A、sparkcoreB、sparksqlC、sparkstreamingD、sparkR19.函數(shù)在scala中的地位說法正確的有哪些選項()A、一等公民B、可以獨立定義C、不能獨立定義D、函數(shù)不能賦值給變量20.表達式for(iA、11;12;13;21;22;23;31;32;33B、11;13;21;23;31;33C、12;13;21;23;31;32D、11;12;21;22;31;3221.DataFrame也是一個分布式數(shù)據(jù)容器22.scala中的object描述下列那些正確()A、object是scala的關(guān)鍵字B、scala中的object和java中的object是一樣的C、object本身就是一個單例對象D、scala中的object是一個伴生對象23.不能夠遍歷Array的算子是哪個()A、foreachB、countC、collectD、flatmap24.standalone組件在spark中的角色是其自帶的()A、任務(wù)調(diào)度框架B、任務(wù)模式C、資源調(diào)度框架D、任務(wù)整合25.sparkSql可以訪問hive數(shù)據(jù),并將其結(jié)果取回作為RDD使用26.spark的運行模式有哪些?()A、javaB、pythonC、scalaD、go27.spark框架中,機器學(xué)習(xí)庫的框架是哪個()A、hadoopB、spark?streamingC、mlbaseD、RDD28.SparkSQL是一個用來處理結(jié)構(gòu)化數(shù)據(jù)的spark組件。它提供了一個叫做()的可編程抽象數(shù)據(jù)模型A、DataFramesB、TableC、DataSetD、RDD29.spark中map算子具有以下哪個特性()A、懶執(zhí)行B、立即執(zhí)行C、一致性D、冗余性30.Spark是基于內(nèi)存計算的大數(shù)據(jù)并行計算框架。Spark基于內(nèi)存計算,提高了在大數(shù)據(jù)環(huán)境下數(shù)據(jù)處理的實時性,同時保證了高容錯性和高可伸縮性31.以下對map函數(shù)說法錯誤的是()A、對傳入的每個元素都進行映射,返回一個處理后的元素B、對每個元素都處理,沒有返回值C、對傳入元素進行條件判斷,必須返回布爾值D、對傳入元素進行條件判斷,沒有返回值32.在scala中定義變量時,變量的類型可以不寫33.spark中persist算子是()的算子A、延遲執(zhí)行B、立即執(zhí)行C、等待執(zhí)行D、陳列執(zhí)行34.能夠在sparkSql中寫sql語句35.flume中用來緩存數(shù)據(jù)的組件是channe36.spark進行數(shù)據(jù)切分的時候,劃分完成的partition個數(shù)和hdfs中block個數(shù)一致37.Linux中查看一個文本文件的指令有哪些()A、結(jié)構(gòu)化數(shù)據(jù)文件B、hive的表C、外部數(shù)據(jù)庫D、RDDs38.下面哪些系統(tǒng)可以和Kafka集成()A、FlumeB、StromC、SparkD、ElasticSearch39.伴生類和伴生對象說法正確?()A、單例對象與類同名時,這個單例對象被稱為這個類的伴生對象,而這個類被稱為這個單例對象的伴生類B、伴生類和伴生對象要在同一個源文件中定義C、伴生對象和伴生類可以互相訪問其私有成員D、不與伴生類同名的單例對象稱為孤立對象40.下面對于spark的特點描述正確的是()A、良好的容錯性:在分布式數(shù)據(jù)集計算時通過checkpoint來實現(xiàn)容錯,當某個運算環(huán)節(jié)失敗時,不需要從頭開始重新計算B、開發(fā)便捷性:spark通過scala,java,pythonapi及交互式shell提供豐富的使用方式C、不適合細粒度更新操作:Spark的運算是面向集合的,不適用于需要異步細粒度更新狀態(tài)的應(yīng)用,例如web服務(wù)的DAO層或web爬蟲等D、以上答案都不符合其特性41.跟在類名后面的是主構(gòu)造器42.關(guān)于Scala中的trait和Java中的Interface描述錯誤的是?()A、Scala特質(zhì)和Java接口都可以包含抽象方法和具體實現(xiàn)。B、Scala和Java都不允許多重繼承,但可以疊加多個特質(zhì)或接口。C、Java只能在類層面上添加接口的實現(xiàn),而Scala可以在類和對象層面上“混入”特質(zhì)。D、Trait可以寫方法的實現(xiàn)43.flume的配置文件不能給多個agent使用44.以下關(guān)于Scala中函數(shù)的描述錯誤的是?()A、函數(shù)是“頭等公民”,就和數(shù)字一樣。B、可以將函數(shù)賦值給變量,如valfun=scala.math.ceil。C、支持非具名函數(shù),也即匿名函數(shù)。D、可以將函數(shù)作為參數(shù),傳遞給其它函數(shù)。45.scala語言中var定義的變量,賦值后不能改變46.在flume中,以下屬于agent組件的成員是()A、sourceB、ChannelC、GridFSD、Sink47.sparkAPI支持哪種語言()A、masterB、workerC、applicationD、driver48.reduce求和輸出結(jié)果為varlist1=list1(1,2,3,4)varsum=list1.reduce(_+_)println(sum)()A、10B、1C、4D、以上答案都不對49.reverse會將所給的對象的順序反轉(zhuǎn),請說出下列程序輸出結(jié)果為valarr=Array(1,2,3,4,5)//帶下標的for循環(huán)for(iA、54321B、43215C、32154D、1234550.關(guān)于高階函數(shù)描述錯誤的是:()A、在程序中應(yīng)該首先被定義的函數(shù)B、將函數(shù)作為參數(shù)其他函數(shù)的參數(shù)使用C、執(zhí)行時間長的函數(shù)D、函數(shù)的方法體比較長51.spark是基于()運行的計算框架A、內(nèi)存B、磁盤C、內(nèi)存加磁盤D、網(wǎng)絡(luò)52.以下組件哪個不是Flume的組成部分()A、sourceB、sinkC、channelD、topic53.kafka是一個關(guān)于什么的中間件()A、消息B、傳輸C、操作D、事物54.在scala中使用那個關(guān)鍵字定義方法()A、defB、mainC、objectD、class55.下面有關(guān)scala語言描述正確的是?()A、varval第一個是對scala中對變量的定義標志,其中var表示可變,val表示不可以變量B、content為變量的名字C、String表示是變量的類型,如果沒有寫,將來會自動推斷D、"helloworld"為變量的初始化56.flume在大數(shù)據(jù)生態(tài)圈中的作用是()A、監(jiān)測收集數(shù)據(jù)B、處理數(shù)據(jù)C、計算數(shù)據(jù)D、存儲數(shù)據(jù)57.spark中cache算子和persist算子的關(guān)系()A、_useDiskB、_useMemoryC、_useOffHeapD、_useDes58.在scala中如果使用for循環(huán),其格式必須如下for(vari=0;i<10;i++){}59.閉包是一個函數(shù),返回值依賴于聲明在函數(shù)外部的一個或多個變量60.以下對于reduce操作說法嚴格一樣正確的是vart=List(1,2,3,4,5)println(t.reduce((a,b)=>a+b))()A、println(t.reduce(_+_))是用通配符代表前后2個元素相加,與題干一致B、println(t.reduceLeft(_+_))reduceLeft與reduce一致,通配符表示前后2個元素相加,與題干一致C、println(t.reduceRight((a,b)=>a+b))是用通配符代表前后2個元素相加,但是累加順序從右邊開始,與題干不一致D、println(t.reduceRight(_+_))是用通配符代表前后2個元素相加,但是累加順序從右邊開始,與題干不一致61.在scala中對于列表的操作,那些說法說法正確vart=List(1,2,3)vart2=List(4,5)()A、vart3=t++t2得到List(1,2,3,4,5)B、vart3=List.concat(t,t2)得到List(1,2,3,4,5)C、vart3=t:::t2得到List(1,2,3,4,5)D、vart3=t2.:::(t)得到List(1,2,3,4,5)62.Rdd不能夠轉(zhuǎn)換成DataFrame63.sparkSql不能使用jdbc讀取數(shù)據(jù)庫的數(shù)據(jù)64.對于以下代碼描述有誤的是?valdata=Map(1->"One",2->"Two")valres=for((k,v)1))yieldv()A、運行后res的結(jié)果為List("Two")。B、運行后res的結(jié)果為List("One","Two")。C、對映射data中的每一個(鍵,值)對,k被綁定對鍵,而v則被綁定到值。D、其中的if(k>1)是一個守衛(wèi)表達式。65.DiscretizedStream是SparkStreaming的基礎(chǔ)抽象,代表持續(xù)性的數(shù)據(jù)流和經(jīng)過各種Spark原語操作后的結(jié)果數(shù)據(jù)流66.以下關(guān)于Namenode的說法正確的是()A、協(xié)調(diào)客戶端對文件的訪問。B、記錄命名空間內(nèi)的改動或者空間本*省屬性的改動。C、記錄?每個文件數(shù)據(jù)快在各個Datanode上的位置和副本信息。D、管理文件系統(tǒng)的命名空間。67.在scala中,AnyRef是String類的父類68.spark架構(gòu)中的persist算子在源碼中最多有()備份A、2B、3C、4D、169.在scala中所有類型都繼承自O(shè)bject70.該方法只能用于連接兩個List類型的集合71.spark中的程序必須有以下哪幾種算子構(gòu)成()A、轉(zhuǎn)換算子,action算子B、轉(zhuǎn)換算子,控制算子C、轉(zhuǎn)換算子,tracform算子D、轉(zhuǎn)換算子72.以下哪個組件不是agent中包含的()A、sourceB、sinkC、channelD、broker73.在HBase框架中,下面哪些選項被使用()A、HDFSB、GridFSC、ZookeeperD、EXT374.SparkStreaming中的Dstream可以看作是在RDD上面又封了一層的數(shù)據(jù)結(jié)構(gòu)75.sparkcore組件中的核心概念是()A、rddB、datasetC、dataframeD、data76.sparkSql不能夠訪問hive中的數(shù)據(jù)77.java中,關(guān)于數(shù)組的說法,哪幾個是正確的()A、數(shù)組的長度是固定的B、數(shù)組的長度是可變的C、數(shù)組可以存放不同的數(shù)據(jù)類型的數(shù)據(jù)D、數(shù)組只能存放單一的數(shù)據(jù)類型的數(shù)據(jù)78.下面算子中哪個是寬依賴的()A、mapB、flatmapC、reducebykeyD、sample79.以下關(guān)于特質(zhì)的說法錯誤的是?()A、類可以實現(xiàn)任意數(shù)量的特質(zhì)。B、特質(zhì)可以要求實現(xiàn)它們的類具備特定的字段、方法或超類。C、與Java接口(Interface)相同,Scala特質(zhì)也可以提供方法和字段的實現(xiàn)。D、當將多個特質(zhì)疊加在一起時,順序很重要——其方法先被執(zhí)行的特質(zhì)排在更后面。80.基于maven的項目,有且必須有一個pom.xml文件81.與spark基于內(nèi)存相比,mapreduce是基于()運行的計算框架A、內(nèi)存B、磁盤C、內(nèi)存加磁盤D、網(wǎng)絡(luò)82.DataFrame更像傳統(tǒng)數(shù)據(jù)庫的二維表格,除了數(shù)據(jù)以外,還記錄數(shù)據(jù)的結(jié)構(gòu)信息,即()A、schemaB、表結(jié)構(gòu)C、RowD、DataSet83.spark架構(gòu)計算速度比mapreduce計算速度快單純因為內(nèi)存84.spark架構(gòu)在運行過程中是通過driver完成資源申請85.以下的計算結(jié)果選項中那個正確varlist=List(1,2,3,4,5)varjs=list.fold(100)(_+_)println(js)()A、115B、15C、5D、8586.內(nèi)存計算下,Spark?比?Hadoop?快10倍87.zookeeper數(shù)據(jù)模型是帶有默認權(quán)限的88.下面輸出與其他不一致的是?()A、valw="World";println(s"Hello$w")B、valw="World";println("Hello$w")C、println("HelloWorld")D、valw="World";println("Hello"+w)89.Kafka是由哪個組織研的組件()A、googleB、apacheC、sunD、oracle90.sortByKey算子在一個(K,V)的RDD上調(diào)用,K必須實現(xiàn)Ordered接口,返回一個按照key進行排序的(K,V)的RDD91.日志收集系統(tǒng)Flume現(xiàn)在使用的是哪個版本?()A、NG版本B、OG版本C、DG版本D、MG版本92.sparkSql僅僅支持查詢原生的RDD,其他方式的查詢都不支持93.SparkStreaming中的Dstream和SparkSql中的DataFrame其實是一回事,沒有區(qū)別94.flume中的三大組件為source、channel、sinks95.在scala中,以下哪些屬于動作算子()A、foreachB、reduceC、countD、map96.創(chuàng)建rdd可以有如下幾種?()A、由外部存儲系統(tǒng)的數(shù)據(jù)集創(chuàng)建,包括本地的文件系統(tǒng)B、由一個已經(jīng)存在的Scala集合創(chuàng)建C、比如所有Hadoop支持的數(shù)據(jù)集,比如HDFS、Cassandra、HbaseD、以上說法都不對97.spark架構(gòu)中會出現(xiàn)控制算子的原因是以下哪個選項()A、spark備份的安全原因B、spark用戶的要求C、兼容hiveD、兼容hbase98.下列哪些語句關(guān)于Java內(nèi)存回收的說明是正確的()A、程序員必須創(chuàng)建一個線程來釋放內(nèi)存?B、內(nèi)存回收程序可以在指定的時間釋放內(nèi)存對象C、內(nèi)存回收程序允許程序員直接釋放內(nèi)存D、內(nèi)存回收程序負責釋放無用內(nèi)存99.變量聲明時不指定類型,編譯器會報錯誤,編譯不過去100.action算子在spark程序運行的過程中有什么作用()A、懶執(zhí)行B、立即執(zhí)行C、一致性D、冗余性第I卷參考答案一.參考題庫1.參考答案:A,B,C,D2.參考答案:B3.參考答案:B4.參考答案:B

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論