版權(quán)說(shuō)明:本文檔由用戶(hù)提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
PAGEPAGE12025年河北省職業(yè)院校大數(shù)據(jù)應(yīng)用與服務(wù)(中職組)賽項(xiàng)考試題庫(kù)(含答案)一、單選題1.在Kafka中,()是ISR隊(duì)列中最小的LEO。A、LEOB、ISRC、HWD、AR答案:C2.在配置好Hadoop集群之后,通過(guò)瀏覽器登錄查看HDFS狀態(tài),以下是查看的URL()。A、http://master:8089B、:50070C、http://master:16010D、http://master:9999答案:B3.Flink中的任務(wù)并行度(TaskParallelism)是指()。A、任務(wù)執(zhí)行的速度B、同一任務(wù)的多個(gè)實(shí)例并行執(zhí)行C、不同任務(wù)之間的并行執(zhí)行D、任務(wù)的執(zhí)行順序答案:B4.ZooKeeper的特點(diǎn)不包括()。A、順序一致性B、原子性C、可靠性D、復(fù)合系統(tǒng)映像答案:D5.關(guān)于Dataset,下列說(shuō)法錯(cuò)誤的是()。A、Dataset能從RDD中構(gòu)建B、Dataset提供了特定域?qū)ο笾械娜躅?lèi)型集合C、Dataset結(jié)合了RDD和DataFrame的優(yōu)點(diǎn)D、ataset可以通過(guò)SparkSession中的createDataset來(lái)創(chuàng)建答案:B6.Flume的事件可以包含哪些屬性?()A、Timest,Type,Body,Headers,CountB、Timest,Type,Body,Headers,IDC、Timest,Type,Body,Headers,SequenceIDD、Timest,Type,Body,Headers,Number答案:C7.Flink的安裝過(guò)程中,通常需要設(shè)置()來(lái)指定Flink的根目錄。A、JAVA_HOMEB、PATHC、FLINK_HOMED、FLINK_PATH答案:C8.Kafka的消息傳遞語(yǔ)義是()。A、最終一致性B、強(qiáng)一致性C、弱一致性D、無(wú)一致性答案:C9.在Hive中,以下哪個(gè)配置參數(shù)用于指定HiveCLI的歷史命令記錄文件名()?A、B、hive.cli.history.fileC、mand.log.filenameD、hive.query.log.file答案:B10.Task運(yùn)行在下面()選項(xiàng)中Executor上的工作單元。A、DriverprogramB、sparkmasterC、workernodeD、Clustermanager答案:C11.Kafka的生產(chǎn)者在發(fā)送消息時(shí)可以選擇的傳遞方式是()。A、同步傳遞B、異步傳遞C、并行傳遞D、串行傳遞答案:A12.在HDFS文件操作中,上傳文件的命令是()。A、putB、inputC、getD、up答案:A13.關(guān)于Hive描述正確的是()。A、count函數(shù)必須開(kāi)窗口才能使用B、max函數(shù)是窗口函數(shù)C、lead函數(shù)是聚合函數(shù),不是窗口函數(shù)D、min函數(shù)是聚合函數(shù),不是窗口函數(shù)答案:B14.ClusterManager是()。A、資源的分配和管理B、從節(jié)點(diǎn)C、執(zhí)行器D、主節(jié)點(diǎn)答案:A15.下面中不屬于HIVE中的元數(shù)據(jù)信息()。A、表的名字B、表的列和分區(qū)及其屬性C、表的屬性(只存儲(chǔ)內(nèi)部表信息)D、表的數(shù)據(jù)所在目錄答案:C16.Flume的事件Body可以包含什么類(lèi)型的數(shù)據(jù)?()A、String,Byte數(shù)組,字節(jié)流,Map<String,String>和自定義對(duì)象序列化后的數(shù)據(jù)。B、String,Map<String,String>和自定義對(duì)象序列化后的數(shù)據(jù)。C、Byte數(shù)組,字節(jié)流和自定義對(duì)象序列化后的數(shù)據(jù)。D、String和自定義對(duì)象序列化后的數(shù)據(jù)。答案:A17.Dockerfile配置文件使用()命令指定基礎(chǔ)鏡像。A、IMPORTB、GETC、OPEND、FROM答案:D18.關(guān)于SparkSQL,以下說(shuō)法正確的是()。A、HiveContext繼承了SqlContextB、DataFrame其實(shí)就是RDDC、HiveContext只支持SQL語(yǔ)法解析器D、SparkSQL的前身是Hive答案:A19.在Hive中,以下哪個(gè)配置參數(shù)用于指定Hive表的默認(rèn)存儲(chǔ)格式()?A、hive.default.storage.formatB、hive.default.file.formatC、hive.default.formatD、hive.table.default.format答案:C20.關(guān)于Hive和傳統(tǒng)數(shù)據(jù)庫(kù)的比較描述正確的是()?A、Hive使用了查詢(xún)語(yǔ)言HQL(HiveQueryLanguage),HQL與SQL沒(méi)有任何關(guān)系B、Hive使用了查詢(xún)語(yǔ)言HQL(HiveQueryLanguage),HQL與SQL沒(méi)有任何關(guān)系C、Hive是建立在Hadoop之上的,所有Hive的數(shù)據(jù)都是存儲(chǔ)在HDFS中的,而數(shù)據(jù)庫(kù)則可以將數(shù)據(jù)保存在塊設(shè)備或者本地文件系統(tǒng)中D、Hive的針對(duì)數(shù)據(jù)倉(cāng)庫(kù)設(shè)計(jì),針對(duì)的是讀多寫(xiě)少的場(chǎng)景灕灕灕灕灕灕答案:D21.下面()不是RDD的特點(diǎn)。A、可分區(qū)B、可序列化C、可修改D、可持久化答案:C22.Flume的源類(lèi)型有哪些?()A、Log4j,Kafka,HBase,自定義B、File,Kafka,HBase,自定義C、File,Kafka,HBase,Spooling,自定義D、File,Kafka,HBase,Spooling,Exec答案:C23.Flume的哪個(gè)組件可以保證數(shù)據(jù)不會(huì)丟失?()A、通道B、接收器C、攔截器D、源答案:B24.將nginx容器接入自定義的myops網(wǎng)絡(luò)的操作命令是()。A、dockernetworkjoinmyopsnginxB、dockernetworkconnmyopsnginxC、dockernetworkconnectmyopsnginxD、ockernetworkconnectnginxmyops答案:C25.Dockerfile中聲明鏡像內(nèi)服務(wù)監(jiān)聽(tīng)的端口的指令是()。A、LISTENB、EXPOSEC、ARGD、MONITOR答案:B26.在ZooKeeper中,Watcher是一次性的嗎?()A、是,一旦觸發(fā)就無(wú)法再次使用B、否,可以反復(fù)使用C、取決于Watcher的類(lèi)型D、取決于節(jié)點(diǎn)的類(lèi)型答案:C27.關(guān)于ZooKeeper臨時(shí)節(jié)點(diǎn)的說(shuō)法正確的是()。A、創(chuàng)建臨時(shí)節(jié)點(diǎn)的命令為:create-s/tmpmyvalueB、一旦會(huì)話(huà)結(jié)束,臨時(shí)節(jié)點(diǎn)將被自動(dòng)刪除C、臨時(shí)節(jié)點(diǎn)不能手動(dòng)刪除D、臨時(shí)節(jié)點(diǎn)允許有子節(jié)點(diǎn)答案:B28.下面哪個(gè)程序負(fù)責(zé)HDFS數(shù)據(jù)存儲(chǔ)()。A、DatanodeB、NameNodeC、JobtrackerD、secondaryNameNode答案:A29.sqoop安裝完成后,查看sqoop版本的命令是()。A、Sqoop-versionB、SqoopversionC、Sqoop-vD、Sqoopv答案:B30.下列描述中,哪項(xiàng)不屬于Sqoop的缺點(diǎn)()。A、無(wú)法控制任務(wù)的并發(fā)度B、格式緊耦合C、安全機(jī)制不夠完善D、connector必須符合JDBC模型答案:A31.在Docker的運(yùn)行過(guò)程中,對(duì)鏡像的操作不包括()。A、deleteB、searchC、pullD、push答案:A32.下列選項(xiàng)中,針對(duì)Spark運(yùn)行的基本流程是錯(cuò)誤是()。A、Driver端提交任務(wù),向Master申請(qǐng)資源B、Master與Worker進(jìn)行TCP通信,使得Worker啟動(dòng)ExecutorC、Executor啟動(dòng)會(huì)主動(dòng)連接Driver,通過(guò)Driver->Master->WorkExecutor,從而得到Driver在哪D、river會(huì)產(chǎn)生Task,提交給Executor中啟動(dòng)Task去做真正的計(jì)算答案:B33.Hadoop組件在企業(yè)應(yīng)用中,能用于大數(shù)據(jù)集實(shí)時(shí)查詢(xún)的產(chǎn)品有()。A、HiveB、PigC、MahoutD、Hbase答案:D34.Flume的哪個(gè)版本開(kāi)始支持Avro作為數(shù)據(jù)傳輸格式?()A、1.X版本B、2.X版本C、3.X版本D、4.X版本以后答案:D35.使用Dockerrun命令運(yùn)行一個(gè)容器時(shí),通過(guò)參數(shù)()可啟動(dòng)一個(gè)bash允許用戶(hù)進(jìn)行交互。A、itB、iaC、ntD、na答案:A36.要在Hive中啟用Kerberos認(rèn)證,應(yīng)該設(shè)置哪個(gè)配置參數(shù)()?A、hive.security.authenticationB、hive.kerberos.enabledC、hive.auth.kerberosD、hive.authentication.method答案:A37.查看Docker所有容器的命令是()。A、dockerpsB、dockerps-aC、dockerpsallD、ockerall答案:B38.在Hive中,以下哪個(gè)配置參數(shù)用于指定Hive的執(zhí)行引擎為Spark()?A、hive.execution.engine=sparkB、hive.spark.execution.engine=trueC、hive.spark.engine.enabled=trueD、hive.query.engine=spark答案:A39.關(guān)于ZooKeeper說(shuō)法錯(cuò)誤的是()。A、ZooKeeper是一個(gè)高可用的分布式數(shù)據(jù)管理和協(xié)調(diào)框架B、能夠很好的保證分布式環(huán)境中數(shù)據(jù)的一致性C、越來(lái)越多的分布式系統(tǒng)(Hadoop、HBase、Kafka)中使用ZooKeeperD、Hadoop的高可用不需要用到ZooKeeper答案:D40.獲取遠(yuǎn)程倉(cāng)庫(kù)中Docker鏡像的操作命令是()。A、dockergetB、dockerpushC、dockerpullD、ockerdownload答案:C41.ZooKeeper中的一次讀操作是原子的嗎?()A、是,讀操作是原子的B、否,讀操作可能不是原子的C、取決于讀操作的類(lèi)型D、取決于節(jié)點(diǎn)的類(lèi)型答案:A42.Flink的狀態(tài)管理用于(),以支持容錯(cuò)性和狀態(tài)化的計(jì)算。A、存儲(chǔ)和檢索中間結(jié)果B、控制數(shù)據(jù)流速度C、定時(shí)觸發(fā)窗口操作D、執(zhí)行數(shù)據(jù)清洗答案:A43.當(dāng)之前下線(xiàn)的分區(qū)重新上線(xiàn)時(shí),要執(zhí)行Leader選舉,選舉策略為()。A、OfflinePartitionLeader選舉B、ReassignPartitionLeader選舉C、PreferredReplicaPartitionLeader選舉D、ControlledShutdownPartitionLeader選舉答案:A44.以下關(guān)于Spark計(jì)算框架,說(shuō)法錯(cuò)誤的是()。A、Spark支持內(nèi)存計(jì)算B、Spark框架是使用Java編寫(xiě)的C、Spark提供了完整而強(qiáng)大的技術(shù)棧,包括SQL查詢(xún)、流式計(jì)算、機(jī)器學(xué)習(xí)和圖算法組件D、Spark可運(yùn)行于獨(dú)立的集群模式中,可運(yùn)行于Hadoop中,也可運(yùn)行于AmazonEC2等云環(huán)境中答案:B45.在Hive中,以下哪個(gè)配置參數(shù)用于指定Hive執(zhí)行計(jì)劃的輸出目錄()?A、hive.query.plan.output.directoryB、hive.exec.plan.output.directoryC、hive.plan.output.directoryD、hive.query.execution.directory答案:A46.使用create命令新建容器時(shí),指定容器在網(wǎng)絡(luò)中的別名的命令選項(xiàng)是()。A、net-nameB、net-aliasC、networkD、alias答案:B47.Flink的TableAPI和SQL用于()。A、數(shù)據(jù)可視化B、執(zhí)行SQL查詢(xún)C、數(shù)據(jù)流分析D、數(shù)據(jù)清洗答案:B48.在ZooKeeper中,SEQUENTIAL節(jié)點(diǎn)的特點(diǎn)是()。A、節(jié)點(diǎn)名稱(chēng)具有順序性B、節(jié)點(diǎn)數(shù)據(jù)具有順序性C、節(jié)點(diǎn)的觸發(fā)器具有順序性D、節(jié)點(diǎn)的ACL具有順序性答案:A49.HadoopMapReduce支持多種語(yǔ)言編程,下列說(shuō)法不正確的是()。A、可以用JAVA語(yǔ)言編寫(xiě)MapReduce應(yīng)用程序B、可以用C/C++語(yǔ)言編寫(xiě)MapReduce應(yīng)用程序C、可以用Python語(yǔ)言編寫(xiě)MapReduce應(yīng)用程序D、可以用javascript語(yǔ)言編寫(xiě)MapReduce應(yīng)用程序答案:D50.Flume的攔截器實(shí)現(xiàn)了哪個(gè)接口?()A、ChannelInterceptorB、EventInterceptorC、SinkInterceptorD、SourceInterceptor答案:B51.在導(dǎo)入開(kāi)始之前,Sqoop檢索出表中所有的列以及列的SQL數(shù)據(jù)類(lèi)型,這些SQL類(lèi)型被映射什么類(lèi)型()。A、CB、C++C、JavaD、Python答案:C52.下列關(guān)于MapReduce說(shuō)法不正確的是()。A、MapReduce是一種計(jì)算框架B、MapReduce來(lái)源于google的學(xué)術(shù)論文C、MapReduce程序只能用java語(yǔ)言編寫(xiě)D、MapReduce隱藏了并行計(jì)算的細(xì)節(jié),方便使用答案:C53.關(guān)于Hive數(shù)據(jù)傾斜問(wèn)題描述正確的是()。A、不需要了解業(yè)務(wù),對(duì)業(yè)務(wù)進(jìn)行數(shù)據(jù)探查無(wú)法解決數(shù)據(jù)傾斜B、每一個(gè)數(shù)據(jù)傾斜的作業(yè)都需要優(yōu)化C、小文件合并不會(huì)解決數(shù)據(jù)傾斜的問(wèn)題D、可以適當(dāng)?shù)耐ㄟ^(guò)控制mapper和reducer來(lái)控制數(shù)據(jù)傾斜的問(wèn)題答案:D54.ZooKeeper使用的是()文件系統(tǒng)。A、HadoopDistributedFileSystem(HDFS)B、NetworkFileSystem(NFS)C、ZooKeeperFileSystem(ZFS)D、ExtensibleStorageEngine(ESE)答案:C55.Flume的事件傳輸方式是什么?()A、pull-basedB、push-basedC、stream-basedD、event-based答案:B56.Flink的Web界面通常用于()。A、編寫(xiě)Flink作業(yè)B、監(jiān)控Flink集群C、運(yùn)行Flink作業(yè)D、調(diào)試Flink作業(yè)答案:B57.Flume的哪個(gè)版本加入了對(duì)Thrift事件的的支持?()A、Flume1.0B、Flume1.1C、Flume1.2D、Flume1.3答案:B58.Flink的CEP(ComplexEventProcessing)庫(kù)用于(),幫助檢測(cè)和處理特定的事件模式。A、執(zhí)行復(fù)雜數(shù)據(jù)處理操作B、處理圖形數(shù)據(jù)C、處理實(shí)時(shí)事件流D、控制數(shù)據(jù)流速度答案:C59.以下關(guān)于Hive操作描述不正確的是()。A、Hive是一個(gè)建立在hadoop文件系統(tǒng)上的數(shù)據(jù)倉(cāng)庫(kù)架構(gòu),可以用其對(duì)HDFS上B、Hive依賴(lài)于MapReduce處理數(shù)據(jù)C、Hive的加載數(shù)據(jù)時(shí)候,可以用local進(jìn)行修飾,表示從某個(gè)本地目錄下加載數(shù)據(jù)D、Hive一般可以用于實(shí)時(shí)的查詢(xún)分析答案:D60.Docker運(yùn)行的核心模塊是()。A、DockerServerB、DockerEngineC、DockerClient答案:B61.關(guān)于DataFrame與RDD在結(jié)構(gòu)上的區(qū)別,以下描述錯(cuò)誤的是()。A、DataFrame可以看作是分布式的Row對(duì)象的集合,在二維表數(shù)據(jù)集的每一列都帶有名稱(chēng)和類(lèi)型B、RDD是分布式的Java對(duì)象的集合C、RDD在轉(zhuǎn)換數(shù)據(jù)形式時(shí)效率相對(duì)較高D、ataFrame提供了比RDD更豐富的算子答案:C62.Flume的默認(rèn)Avro序列化方式是什么?()A、JSONB、inaryC、SpecificD、Generic答案:C63.關(guān)于Hive的SequenceFile格式描述正確的是()。A、SequenceFile是二進(jìn)制文件格式,以list的形式序列化到文件中B、SequenceFile存儲(chǔ)方式:列存儲(chǔ)C、SequenceFile不可分割、壓縮D、SequenceFile優(yōu)勢(shì)是文件和Hadoopapi中的MapFile是相互兼容的答案:D64.以下關(guān)于Spark中的RDD的說(shuō)法,錯(cuò)誤的是()。A、RDD就是一個(gè)分布式對(duì)象集合,本質(zhì)上是一個(gè)只讀的分區(qū)記錄集合B、每個(gè)RDD可分成多個(gè)分區(qū),每個(gè)分區(qū)就是一個(gè)數(shù)據(jù)集片段C、RDD提供了一種高度共享內(nèi)存模型,RDD既可以讀,也可以直接修改D、RDD的不同分區(qū)可以被保存到集群中不同的節(jié)點(diǎn)上,從而可以在集群中的不同節(jié)點(diǎn)上進(jìn)行并行計(jì)算答案:C65.在ZooKeeper中,節(jié)點(diǎn)可以設(shè)置監(jiān)聽(tīng)器嗎?()A、是,可以設(shè)置監(jiān)聽(tīng)器B、否,節(jié)點(diǎn)沒(méi)有監(jiān)聽(tīng)功能C、取決于節(jié)點(diǎn)的類(lèi)型D、取決于節(jié)點(diǎn)的權(quán)限設(shè)置答案:A66.Flume的哪個(gè)攔截器可以按類(lèi)型區(qū)分事件?()A、ETL攔截器B、分區(qū)攔截器C、以上都不是D、以上都是答案:A67.Docker的三大核心不包括()。A、容器B、算法C、鏡像D、倉(cāng)庫(kù)答案:B68.Flume如何處理故障恢復(fù)?()A、使用事務(wù)性機(jī)制B、使用重試機(jī)制C、使用斷點(diǎn)續(xù)傳機(jī)制D、以上都不是答案:C69.ZooKeeper中的一致性協(xié)議ZAB是基于()算法實(shí)現(xiàn)。A、2PC(Two-PhaseCommit)算法B、Raft算法C、Paxos算法D、3PC(Three-PhaseCommit)算法答案:C70.Sqoop的作用是()。A、用于傳統(tǒng)關(guān)系數(shù)據(jù)庫(kù)和Hadoop之間傳輸數(shù)據(jù)B、提供對(duì)日志數(shù)據(jù)進(jìn)行簡(jiǎn)單處理的能力C、是Hadoop體系中數(shù)據(jù)存儲(chǔ)管理的基礎(chǔ)D、是一個(gè)建立在HDFS之上,面向列的針對(duì)結(jié)構(gòu)化和半結(jié)構(gòu)化數(shù)據(jù)和動(dòng)態(tài)數(shù)據(jù)庫(kù)答案:A71.Sqoop中哪個(gè)參數(shù)用于指定要使用的分隔符,以便在導(dǎo)入數(shù)據(jù)時(shí)正確處理字段?()A、–field-separatorB、–fsC、–delimiterD、–split-by答案:A72.下列關(guān)于leader和follower的說(shuō)法正確的是()。A、一個(gè)topic的每個(gè)分區(qū)可以沒(méi)有l(wèi)eaderB、一個(gè)topic的每個(gè)分區(qū)可以沒(méi)有followerC、消費(fèi)者消費(fèi)數(shù)據(jù)的對(duì)象都是leaderD、follower從leader中同步數(shù)據(jù)有一定延遲答案:C73.以下哪個(gè)是正確的sqoop命令,用于將數(shù)據(jù)從MySQL導(dǎo)入到HDFS?()A、bin/sqoopimport--connectjdbc:mysql://0:3306/userdb--usernameroot--delete-target-dir--target-dir/MysqlToHDFS1--tablestudentB、in/sqoopimport--connectjdbc:mysql://localhost:3306/userdb--usernameroot--delete-target-dir--target-dir/MysqlToHDFS1--tablestudentC、bin/sqoopimport--connectjdbc:mysql://localhost:3306/userdb--usernameroot--delete-target-dir--target-dir/MysqlToHDFS1--tablestudent--m11D、bin/sqoopimport--connectjdbc:mysql://localhost:3306/userdb--usernameroot--delete-target-dir--target-dir/MysqlToHDFS1--tablestudent--m11.3答案:D74.在Hive中,以下哪個(gè)配置參數(shù)用于指定Hive執(zhí)行計(jì)劃的緩存目錄()?A、hive.query.plan.cache.dirB、hive.exec.plan.cache.dirC、hive.cache.plan.directoryD、hive.query.cache.directory答案:B75.制作鏡像時(shí),復(fù)制文件到鏡像中使用的命令是()。A、DDB、COPYC、RUND、CMD答案:B76.下面()端口不是Spark自帶服務(wù)的端口。A、8080.0B、4040.0C、8090.0D、18080.0答案:C77.Flink的安全性設(shè)置通常包括(),以確保只有授權(quán)用戶(hù)能夠訪(fǎng)問(wèn)Flink集群。A、訪(fǎng)問(wèn)控制和身份驗(yàn)證B、作業(yè)調(diào)度和任務(wù)管理C、數(shù)據(jù)加密和網(wǎng)絡(luò)安全D、日志管理和監(jiān)控答案:A78.Hive中以下操作不正確的是()。A、loaddatainpathintotablenameB、insertintotablenameC、insertoverwritetablenameD、upddatetablename答案:D79.在ZooKeeper中,ACL(訪(fǎng)問(wèn)控制列表)可以設(shè)置為()。A、CREATOR_ALL_ACLB、OPEN_ACL_UNSAFEC、AUTH_IDSD、所有選項(xiàng)都正確答案:D80.()參數(shù)不影響kafka重平衡?A、session.timeout.msB、erval.msC、message.max.bytesD、erval.ms答案:C81.在ZooKeeper中,在配置文件zoo.cfg中,請(qǐng)問(wèn)initLimit表示的含義是()。A、Leader-Follower初始通信時(shí)限B、Leader-Follower同步通信時(shí)限C、lient-Server通信心跳時(shí)間D、Client-Server初始通信時(shí)限答案:A82.Kafka的消費(fèi)者可以以什么方式進(jìn)行消息偏移量的管理?()A、手動(dòng)管理B、自動(dòng)管理C、隨機(jī)管理D、循環(huán)管理答案:B83.Flink的主要特點(diǎn)是()。A、高吞吐量B、低延遲C、Exactly-once處理語(yǔ)義D、以上都是答案:D84.關(guān)于MapReduce優(yōu)點(diǎn),下列說(shuō)法不正確的是()。A、高容錯(cuò)性B、適合PB級(jí)以上海量數(shù)據(jù)的離線(xiàn)處理C、良好的擴(kuò)展性D、適合做實(shí)時(shí)計(jì)算答案:D85.關(guān)于MapReduce的說(shuō)法正確的是()。A、MapReduce1.0用YARN框架來(lái)進(jìn)行資源調(diào)度的B、MapReduce是基于內(nèi)存計(jì)算的框架C、MapReduce是分布式文件存儲(chǔ)系統(tǒng)D、MapReduce1.0既是一個(gè)計(jì)算框架又是一個(gè)資源調(diào)度框架答案:D86.Flink的日志管理通常包括()這幾個(gè)方面。A、日志存儲(chǔ)和檢索B、日志清理和壓縮C、日志分析和報(bào)警D、以上都是答案:D87.ZooKeeper中的一次寫(xiě)操作是原子的嗎?()A、是,寫(xiě)操作是原子的B、否,寫(xiě)操作可能不是原子的C、取決于寫(xiě)操作的類(lèi)型D、取決于節(jié)點(diǎn)的類(lèi)型答案:A88.sqoop的組件功能是()。A、sqoop只能實(shí)現(xiàn)關(guān)系型數(shù)據(jù)庫(kù)向非關(guān)系型數(shù)據(jù)傳輸數(shù)據(jù)B、sqoop是關(guān)系型數(shù)據(jù)庫(kù)C、sqoop實(shí)現(xiàn)在關(guān)系型數(shù)據(jù)庫(kù)和非關(guān)系型數(shù)據(jù)庫(kù)之間時(shí)行數(shù)據(jù)傳輸D、sqoop是非關(guān)系型數(shù)據(jù)庫(kù)答案:C89.Kafka的消息是如何進(jìn)行順序?qū)懭氲模浚ǎ〢、順序?qū)懭氲酱疟P(pán)B、順序?qū)懭氲絻?nèi)存C、順序?qū)懭氲骄彺鍰、順序?qū)懭氲剿饕募鸢福篈90.Flume的哪個(gè)版本加入了Kafka作為源和匯點(diǎn)?()A、1.X版本B、2.X版本C、3.X版本D、4.X版本答案:B91.將一個(gè)RDD轉(zhuǎn)換為DataFrame的方法是()。A、dataFrame()B、toDataFrame()C、DF()D、toDF()答案:D92.Flink的分布式部署需要的組件是()。A、JobManager和TaskManagerB、JobClient和JobTrackerC、Master和SlaveD、river和Executor答案:A93.搜索nginx引擎的操作命令是()。A、dockersearchnginxB、dockerpullnginxC、dockerpushnginxD、ockerrmnginx答案:A94.使用Dockerrm命令刪除容器時(shí)只刪除容器的鏈接,需要使用的命令選項(xiàng)是()。A、fB、lC、vD、i答案:B95.關(guān)于Hive用戶(hù)自定義函數(shù)UDF的描述錯(cuò)誤的是()。A、UDF(User-Defined-Function)一進(jìn)一出B、UDAF(User-DefinedAggregationFuncation)聚集函數(shù),多進(jìn)一出C、UDTF(User-DefinedTable-GeneratingFunctions)一進(jìn)多出D、上傳UDFjar包至Hive環(huán)境即可使用自定義函數(shù)答案:D96.Kafka的消息以什么形式進(jìn)行存儲(chǔ)?()A、表格B、集合C、文檔D、日志答案:D97.namenode在()模式下hdfs文件系統(tǒng)無(wú)法修改和寫(xiě)入文件。A、安全模式B、維護(hù)模式C、同步模式D、待機(jī)模式答案:A98.ZooKeeper中的Watcher是()。A、監(jiān)視節(jié)點(diǎn)數(shù)據(jù)變更的機(jī)制B、監(jiān)視節(jié)點(diǎn)子節(jié)點(diǎn)變更的機(jī)制C、監(jiān)視節(jié)點(diǎn)連接狀態(tài)的機(jī)制D、所有選項(xiàng)都正確答案:D99.Hive是以()技術(shù)為基礎(chǔ)的數(shù)據(jù)倉(cāng)庫(kù)。A、HDFSB、MAPREDUCEC、HADOOPD、HBASE答案:C100.Flink的數(shù)據(jù)源可以是()。A、文件B、消息隊(duì)列C、數(shù)據(jù)庫(kù)D、以上都是答案:D101.Kafka的消息保留策略可以根據(jù)什么進(jìn)行配置?()A、時(shí)間B、大小C、主題D、分區(qū)答案:A102.Hive中的自動(dòng)分區(qū)是通過(guò)哪個(gè)配置參數(shù)啟用的()?A、hive.auto.partitionB、hive.partition.autoC、hive.exec.dynamic.partitionD、hive.partitioning.auto答案:C103.下列說(shuō)法錯(cuò)誤的是()。A、生產(chǎn)者和消費(fèi)者面向的都是一個(gè)topicB、生產(chǎn)者發(fā)送數(shù)據(jù)的對(duì)象是leaderC、當(dāng)集群中的某個(gè)節(jié)點(diǎn)發(fā)生故障時(shí),Replica上的partition數(shù)據(jù)不會(huì)丟失D、partition是一個(gè)沒(méi)有順序的隊(duì)列答案:D104.Flume的Channel組件負(fù)責(zé)什么?()A、臨時(shí)存儲(chǔ)從Source組件接收的數(shù)據(jù)B、臨時(shí)存儲(chǔ)從下一組件接收的數(shù)據(jù)C、在Source和Sink之間傳遞數(shù)據(jù)D、在Source和Receiver之間傳遞數(shù)據(jù)答案:A105.允許開(kāi)發(fā)人員為容器分配MAC地址的是()。A、網(wǎng)橋網(wǎng)絡(luò)B、覆蓋網(wǎng)絡(luò)C、驅(qū)動(dòng)網(wǎng)絡(luò)D、主機(jī)網(wǎng)絡(luò)答案:C106.Kafka的消息消費(fèi)可以使用哪種模式?()A、單播B、組播C、廣播D、串播答案:A107.當(dāng)使用sqoop將數(shù)據(jù)從MySQL導(dǎo)入到HDFS時(shí),以下哪個(gè)參數(shù)用于指定使用多個(gè)mapper?()A、-mB、-fC、-tD、-c答案:A108.Flink的廣播狀態(tài)(BroadcastState)用于()。A、在所有任務(wù)之間共享狀態(tài)B、保持?jǐn)?shù)據(jù)流的連續(xù)性C、加速數(shù)據(jù)處理D、控制數(shù)據(jù)流速度答案:A109.Flume的哪個(gè)版本引入了Kafka作為其事件源和接收器?()A、Flume1.6B、Flume1.7C、DH5.0D、CDH5.1答案:C110.以下哪個(gè)文件是能夠修改HDFS的副本保存數(shù)量參數(shù)()。A、修改mapred-site.xml配置文件B、修改core-site.xml配置文件C、修改yarn-site.xml配置文件D、修改hdfs-site.xml配置文件答案:D111.Kafka的核心是由哪個(gè)組件組成?()A、ProducerB、ConsumerC、BrokerD、ZooKeeper答案:C112.在Hive中,以下哪個(gè)配置參數(shù)用于指定Hive服務(wù)器的端口號(hào)()?A、hive.server.portB、hive.server2.thrift.portC、hive.server.rpc.portD、hive.thrift.server.port答案:B113.查看Docker版本號(hào)的操作命令是()。A、docker-vB、docker--versionC、docker-lD、ocker-a答案:A114.Flink支持處理各種類(lèi)型的數(shù)據(jù),包括()數(shù)據(jù)。A、結(jié)構(gòu)化B、半結(jié)構(gòu)化C、無(wú)結(jié)構(gòu)化D、以上都是答案:D115.Flink最常用的編程語(yǔ)言是()。A、JavaB、PythonC、ScalaD、C++答案:A116.查看Docker鏡像信息的命令是()。A、lsdockerB、lsimagesC、dockerlistimagesD、ockerimages答案:D117.下列方法中,不能創(chuàng)建RDD的方法是()。A、makeRDDB、parallelizeC、textFileD、testFile答案:D118.Linux下啟動(dòng)HDFS的命令是()。A、HdfsB、startdfsC、start-dfs.shD、start-dfs.cmd答案:C119.Docker配置文件的語(yǔ)法格式中,代表單個(gè)字符的符號(hào)是()。A、?B、?C、!D、^答案:B120.Docker的()命令用于構(gòu)建鏡像。A、createB、addC、buildD、new答案:C121.Docker中的每一個(gè)工作都可以抽象為一個(gè)()。A、實(shí)例B、進(jìn)程C、JobD、請(qǐng)求答案:C122.使用消息隊(duì)列的好處不包括()。A、能夠有效解耦B、可恢復(fù)性增強(qiáng)C、提供緩沖空間D、能夠同步通信答案:D123.下面()操作是寬依賴(lài)。A、map♂B、flatMapC、groupByKeyD、union答案:C124.Flink的集群部署通常需要()作為資源管理器。A、YARNB、ApacheZooKeeperC、ApacheKafkaD、HadoopHDFS答案:A125.當(dāng)Kafka中日志片段大小達(dá)到()時(shí),當(dāng)前日志片段會(huì)被關(guān)閉。A、1MB、100MC、1GBD、10GB答案:C126.SparkStreaming中對(duì)DStream的轉(zhuǎn)換操作會(huì)轉(zhuǎn)變成對(duì)()的操作。A、sqlB、datasetC、rddD、ataframe答案:C127.在ZooKeeper中,Watcher是在()被觸發(fā)。A、在節(jié)點(diǎn)數(shù)據(jù)變更之前B、在節(jié)點(diǎn)數(shù)據(jù)變更之后C、在節(jié)點(diǎn)數(shù)據(jù)變更期間D、取決于Watcher的設(shè)置答案:B128.HBase依賴(lài)()技術(shù)框架提供消息通信機(jī)制。A、ZookeeperB、ChubbyC、RPCD、Socket答案:A129.要在Hive中啟用數(shù)據(jù)列級(jí)別的訪(fǎng)問(wèn)控制(RBAC),應(yīng)該設(shè)置哪個(gè)配置參數(shù)()?A、hive.column.security.enabledB、hive.rbac.enabledC、hive.security.column.enabledD、hive.access.control.columns=true答案:C130.在Flink的配置文件中,()通常用來(lái)指定Flink任務(wù)并行度。A、parallelism.defaultB、task.parallelismC、parallelism.default-taskD、task.default-parallelism答案:D131.Flink支持的數(shù)據(jù)處理方式為()。A、批處理B、流處理C、以上都是D、無(wú)法確定答案:C132.Flink的作業(yè)提交通常需要()來(lái)管理作業(yè)的執(zhí)行。A、JobManagerB、TaskManagerC、ResourceManagerD、NameNode答案:A133.Kafka最初是由哪家公司開(kāi)發(fā)的?()A、GoogleB、FacebookC、LinkedInD、Microsoft答案:C134.在Sqoop中,使用哪個(gè)命令可以列出可用的數(shù)據(jù)庫(kù)連接?()A、sqooplist-databasesB、sqoophelpC、sqoopconnectionsD、sqoopserver答案:A135.在Flink中,窗口(Window)的作用是()。A、控制數(shù)據(jù)流的速度B、對(duì)數(shù)據(jù)流進(jìn)行分組C、對(duì)數(shù)據(jù)流進(jìn)行時(shí)間切片D、對(duì)數(shù)據(jù)流進(jìn)行過(guò)濾答案:C136.dockerfile文件的作用是()。A、普通文件B、用于自定義鏡像C、用于保存容器配置D、用于存放docker配置答案:B137.Flume的核心組件有哪些?()A、Source,Channel,andSinkB、Source,Channel,andReceiverC、Source,Buffer,andSinkD、Source,Router,andChannel答案:A138.以下對(duì)hive中表數(shù)據(jù)操作描述正確的是()。A、hive可以修改行值B、hive可以修改列值C、hive不可以修改特定行值、列值D、以上說(shuō)法都不對(duì)答案:C139.Flink的作業(yè)調(diào)度(JobScheduling)通常由()負(fù)責(zé)。A、ResourceManagerB、TaskManagerC、JobManagerD、ZooKeeper答案:C140.下列關(guān)于topic和partition的描述,錯(cuò)誤的是()。A、Kafka中消息是以partition進(jìn)行分類(lèi)的B、與partition不同,topic是邏輯上的概念而非物理上的概念C、每個(gè)partition對(duì)應(yīng)于一個(gè)log文件D、一個(gè)partition分為多個(gè)segment答案:A141.Flume的哪個(gè)版本開(kāi)始支持Spoolingdirectorysource?()A、Flume1.0B、Flume1.1C、Flume1.2D、Flume1.3答案:C142.Hive中的哪個(gè)配置參數(shù)用于指定Hive的臨時(shí)文件目錄()?A、hive.tmp.dirB、hive.temp.directoryC、hive.temp.dirD、hive.tmp.directory答案:A143.Flink的時(shí)間語(yǔ)義(TimeSemantics)中的事件時(shí)間(EventTime)和處理時(shí)間(ProcessingTime)的區(qū)別是()。A、事件時(shí)間是事件發(fā)生的時(shí)間,處理時(shí)間是事件進(jìn)入Flink的時(shí)間B、事件時(shí)間是事件進(jìn)入Flink的時(shí)間,處理時(shí)間是事件發(fā)生的時(shí)間C、事件時(shí)間和處理時(shí)間是相同的D、事件時(shí)間和處理時(shí)間沒(méi)有明確的定義答案:A144.下面哪個(gè)命令行參數(shù)可以用來(lái)刪除Kafka中的Topic?()A、listB、createC、deleteD、escribe答案:C145.測(cè)試Sqoop是否能夠正常連接MySQL數(shù)據(jù)庫(kù)命令是()。A、sqooplist-database--connectjdbc:mysql://:3306/--usernameroot–PB、sqooplist-databases--connectionjdbc:mysql://:3306/--usernameroot–PC、sqooplist-databases--connectjdbc:mysql://:3306/--usernameroot–LD、sqooplist-databases--connectjdbc:mysql://:3306/--usernameroot–P答案:D146.在HDFS分布式文件系統(tǒng)中,一般采用冗余存儲(chǔ),冗余因子通常設(shè)置為()。A、1.0B、2.0C、3.0D、4.0答案:C147.Kafka的消費(fèi)者在處理消息時(shí)可以選擇的模式是()。A、單線(xiàn)程模式B、多線(xiàn)程模式C、分布式模式D、并行模式答案:B148.Kafka服務(wù)器默認(rèn)能接收的最大消息是多大?()♂A、1MB、10MC、100MD、沒(méi)有大小限制,因?yàn)橹С执髷?shù)據(jù)答案:A149.在Docker數(shù)據(jù)管理中,數(shù)據(jù)卷可以提供的特性不包括()。A、數(shù)據(jù)卷可以在容器之間共享和重用B、對(duì)數(shù)據(jù)卷內(nèi)數(shù)據(jù)的修改立馬生效C、對(duì)數(shù)據(jù)卷的更新不影響鏡像D、掛載數(shù)據(jù)卷時(shí)要手工創(chuàng)建掛載目錄答案:D150.Flink中的轉(zhuǎn)換算子(TransformationOperator)通常用于()。A、計(jì)算作業(yè)的結(jié)果B、控制作業(yè)的執(zhí)行順序C、定義數(shù)據(jù)源D、過(guò)濾和轉(zhuǎn)換數(shù)據(jù)流答案:D151.在ZooKeeper中,節(jié)點(diǎn)的數(shù)據(jù)版本是如何維護(hù)的?()A、自動(dòng)遞增B、手動(dòng)指定C、根據(jù)節(jié)點(diǎn)的創(chuàng)建時(shí)間確定D、隨機(jī)生成答案:A152.在ZooKeeper中,每個(gè)節(jié)點(diǎn)都有一個(gè)唯一的標(biāo)識(shí)符,這個(gè)標(biāo)識(shí)符是()。A、ZNodeB、EphemeralNodeC、PersistentNodeD、ZooNode答案:A153.在hadoop配置中core-site.xml的配置是()參數(shù)。A、集群全局參數(shù)B、HDFS參數(shù)C、Mapreduce參數(shù)D、集群資源管理系統(tǒng)參數(shù)答案:A154.以下關(guān)于RDD的寬依賴(lài)和窄依賴(lài)的說(shuō)法錯(cuò)誤的是()。A、窄依賴(lài)表現(xiàn)為子RDD的一個(gè)分區(qū)只依賴(lài)于某個(gè)(些)父RDD的一個(gè)分區(qū)B、寬依賴(lài)則表現(xiàn)為子RDD的一個(gè)分區(qū)依賴(lài)于同一個(gè)父RDD的多個(gè)分區(qū)C、寬依賴(lài)的RDD之間無(wú)Shuffle操作D、窄依賴(lài)的RDD之間無(wú)Shuffle操作答案:C155.關(guān)于DataFrame的優(yōu)勢(shì),以下描述錯(cuò)誤的是()。A、DataFrame提升了Spark框架的執(zhí)行效率B、DataFrame減少了數(shù)據(jù)讀取時(shí)間C、DataFrame可以?xún)?yōu)化執(zhí)行計(jì)劃D、ataFrame可以完全替換RDD答案:D156.Hive默認(rèn)的元存儲(chǔ)是保存在內(nèi)嵌的()數(shù)據(jù)庫(kù)中。A、MySQLB、DerbyC、OracleD、SqlServer答案:B157.Flume的哪個(gè)版本開(kāi)始支持HTTP和HTTPS協(xié)議?()A、Flume1.0B、Flume1.1C、Flume1.2D、Flume1.3答案:D158.Flume的Sink組件負(fù)責(zé)什么?()A、將數(shù)據(jù)從Channel中讀取并寫(xiě)入目標(biāo)位置B、將數(shù)據(jù)從Channel中讀取并發(fā)送到下一組件C、從Channel中讀取數(shù)據(jù)并將其寫(xiě)入接收器D、從Channel中讀取數(shù)據(jù)并將其寫(xiě)入目標(biāo)位置。答案:D159.Flume的哪個(gè)版本加入了對(duì)Avro事件的的支持?()A、Flume1.0B、Flume1.1C、Flume1.2D、Flume1.3答案:C160.Flink的安裝配置中,通過(guò)()來(lái)指定外部依賴(lài)庫(kù)的路徑。A、在Flink集群中心目錄中添加依賴(lài)庫(kù)B、在Flink作業(yè)中指定依賴(lài)庫(kù)路徑C、在Flink配置文件中設(shè)置lib.paths屬性D、在Flink的CLASSPATH環(huán)境變量中添加路徑答案:C161.以下關(guān)于Spark與Hadoop對(duì)比,說(shuō)法錯(cuò)誤的是()。A、Spark的計(jì)算模式也屬于MapReduce,但不局限于Map和Reduce操作,還提供了多種數(shù)據(jù)集操作類(lèi)型,編程模型比HadoopMapReduce更靈活B、Spark提供了內(nèi)存計(jì)算,可將中間結(jié)果放到內(nèi)存中,對(duì)于迭代運(yùn)算效率更高C、Spark磁盤(pán)IO開(kāi)銷(xiāo)較大,任務(wù)之間的銜接涉及IO開(kāi)銷(xiāo)D、Spark基于DAG的任務(wù)調(diào)度執(zhí)行機(jī)制,要優(yōu)于HadoopMapReduce的迭代執(zhí)行機(jī)制答案:C162.下列選項(xiàng)中,()不屬于轉(zhuǎn)換算子操作。A、filter(func)B、map(func)C、reduce(func)D、reduceByKey(func)答案:C163.MySQL數(shù)據(jù)庫(kù)驅(qū)動(dòng)文件放置于hive哪個(gè)目錄下()。A、jarB、libC、binD、sbin答案:B164.在Hive中,以下哪個(gè)配置參數(shù)用于指定Hive元數(shù)據(jù)存儲(chǔ)的數(shù)據(jù)庫(kù)類(lèi)型()?A、hive.metastore.urisB、hive.metastore.schemaC、hive.metastore.db.typeD、hive.metastore.db.url答案:C165.Hive中的哪個(gè)配置參數(shù)用于指定Hive表的默認(rèn)分隔符()?A、hive.default.delimiterB、hive.default.separatorC、hive.default.field.delim答案:C166.Flink的高可用性(HighAvailability)設(shè)置通常需要配置的組件是()。A、JobManager和TaskManagerB、ResourceManager和NodeManagerC、NameNode和DataNodeD、ZooKeeper集群答案:D167.關(guān)于Hive內(nèi)外表描述正確的是()。A、內(nèi)部表數(shù)據(jù)由HDFS自身管理,外部表數(shù)據(jù)由Hive管理;B、內(nèi)部表數(shù)據(jù)存儲(chǔ)的位置是hive.metastore.warehouse.dir設(shè)置配置(默認(rèn):/user/hive/warehouse)C、外表存儲(chǔ)必須指定LOCATIOND、內(nèi)外表刪除時(shí),都會(huì)刪除元數(shù)據(jù)和存儲(chǔ)答案:B168.在ZooKeeper中,()角色負(fù)責(zé)協(xié)調(diào)其他節(jié)點(diǎn)的工作。A、領(lǐng)導(dǎo)者(Leader)B、跟隨者(Follower)C、觀(guān)察者(Observer)D、所有角色均可答案:A169.下列語(yǔ)句中,描述錯(cuò)誤的是()。A、可以通過(guò)CLI方式、JavaApi方式調(diào)用SqoopB、Sqoop底層會(huì)將Sqoop命令轉(zhuǎn)換為MapReduce任務(wù),并通過(guò)Sqoop連接器進(jìn)行數(shù)據(jù)的導(dǎo)入導(dǎo)出操作C、Sqoop是獨(dú)立的數(shù)據(jù)遷移工具,可以在任何系統(tǒng)上執(zhí)行D、如果在Hadoop分布式集群環(huán)境下,連接MySQL服務(wù)器參數(shù)不能是“l(fā)ocalhost”或“”答案:C170.關(guān)于Hive數(shù)據(jù)模型描述正確的是()。A、Hive的元數(shù)據(jù)存儲(chǔ)在HDFS中B、Hive的數(shù)據(jù)模型只包含:表、分區(qū)答案:B171.在linux系統(tǒng)中,提交hadoop程序的命令是()。A、hadoopjarB、hadoop-submitC、hadoop-jarD、hadoopfs答案:A172.在Flink中,水位線(xiàn)是()生成的。A、基于系統(tǒng)時(shí)間的周期性B、基于事件時(shí)間的周期性C、由用戶(hù)手動(dòng)指定D、實(shí)時(shí)答案:A173.Docker容器是在()層面上實(shí)現(xiàn)虛擬化。A、硬件層面B、操作系統(tǒng)層面C、應(yīng)用程序?qū)用娲鸢福築174.Flink中的Watermark是用來(lái)(),幫助Flink正確地處理遲到的事件。A、測(cè)量數(shù)據(jù)流的速度B、表示數(shù)據(jù)流的起點(diǎn)C、處理亂序事件D、控制數(shù)據(jù)流的大小答案:C175.SparkSQL中,model函數(shù)可以接收的參數(shù)有哪些()。A、Override、IgnoreB、Override、Ignore、AppendC、Ignore、Append、ErrorIfExistsD、Override、Ignore、Append、ErrorIfExists答案:D176.與傳統(tǒng)消息系統(tǒng)相比,Kafka的突出特點(diǎn)不包括()。A、能夠持久化日志B、容錯(cuò)能力強(qiáng),是一個(gè)分布式系統(tǒng)C、支持實(shí)時(shí)的流式處理D、提供在線(xiàn)消息同步和離線(xiàn)消息緩存的能力答案:D多選題1.Flink支持的Source包括()。A、自定義數(shù)據(jù)讀取B、從集合中讀取數(shù)據(jù)C、從文件中讀取數(shù)據(jù)D、從消息列隊(duì)中讀取數(shù)據(jù)答案:ABCD2.下面哪個(gè)配置屬性用于指定Hive查詢(xún)的最大并行度()。A、hive.query.parallelismB、hive.exec.parallelC、hive.query.max.parallelD、hive.parallel.query.max答案:ACD3.Flink支持的時(shí)間操作類(lèi)型包括()。A、結(jié)束時(shí)間B、處理時(shí)間C、采集時(shí)間D、事件時(shí)間答案:BD4.下面關(guān)于Flink的說(shuō)法正確的是()。A、Flink起源于Stratosphere項(xiàng)目,該項(xiàng)目是在2010年到2014年間由柏林工業(yè)大學(xué)、柏林洪堡大學(xué)和哈索普拉特納研究所聯(lián)合開(kāi)展的B、Flink可以同時(shí)支持實(shí)時(shí)計(jì)算和批量計(jì)算C、Flink不是Apache軟件基金會(huì)的項(xiàng)目D、Flink是Apache軟件基金會(huì)的5個(gè)最大的大數(shù)據(jù)項(xiàng)目之一答案:ABD5.Hive中的數(shù)據(jù)存儲(chǔ)如何分區(qū)()。A、HDFSB、HBaseC、MySQL或DerbyD、Redis答案:CD6.創(chuàng)建鏡像的主要方法有()。A、基于本地文件導(dǎo)入B、基于本地模板導(dǎo)入C、基于已有鏡像的容器創(chuàng)建D、基于Dockerfile創(chuàng)建答案:BCD7.關(guān)于ZooKeeper順序節(jié)點(diǎn)的說(shuō)法不正確的是()。A、創(chuàng)建順序節(jié)點(diǎn)的命令為:create/testvalue1B、創(chuàng)建順序節(jié)點(diǎn)時(shí)不能連續(xù)執(zhí)行創(chuàng)建命令,否者報(bào)錯(cuò)節(jié)點(diǎn)已存在C、通過(guò)順序節(jié)點(diǎn),可以創(chuàng)建分布式系統(tǒng)唯一IDD、順序節(jié)點(diǎn)的序號(hào)能無(wú)限增加答案:ABD8.Flink是實(shí)時(shí)計(jì)算的代表技術(shù)之一,以下針對(duì)Flink表述正確的有()。A、Flink是構(gòu)建在數(shù)據(jù)流之上的一款有狀態(tài)計(jì)算框架B、Flink可對(duì)有限數(shù)據(jù)流和無(wú)限數(shù)據(jù)流進(jìn)行有狀態(tài)或無(wú)狀態(tài)的計(jì)算C、Flink無(wú)法對(duì)大規(guī)模的數(shù)據(jù)進(jìn)行快速計(jì)算D、Flink能夠部署在各種集群環(huán)境答案:ABD9.Kafka的消息傳遞保證可以是()。A、最多一次B、至少一次C、正好一次D、恰好兩次答案:AB10.Dockerfile配置文件中的指令包括()。A、ENABLEB、VOLUMEC、SHELLD、ADDE、ARG答案:BCDE11.關(guān)于spark容錯(cuò)說(shuō)法錯(cuò)誤的有()。A、在容錯(cuò)機(jī)制中,如果一個(gè)節(jié)點(diǎn)死機(jī)了,而且運(yùn)算窄依賴(lài),則只要把丟失的父RDD分區(qū)重算即可,依賴(lài)于其他節(jié)點(diǎn)B、寬依賴(lài)開(kāi)銷(xiāo)更大C、heckpoint可以節(jié)約大量的系統(tǒng)資源D、RDD的容錯(cuò)機(jī)制是基于SparkStreaming的容錯(cuò)機(jī)制答案:AD12.如果要在Hive中啟用列級(jí)別的權(quán)限控制,哪個(gè)配置屬性應(yīng)該設(shè)置為true()。A、hive.column.level.securityB、hive.security.column.authorization.enabledC、hive.enable.column.level.securityD、hive.column.authorization.enabled答案:BCD13.Flink有哪些狀態(tài)存儲(chǔ)方式()。A、RocksDBStateBackendB、MemoryStateBackendC、KafkaD、FsStateBackend答案:ABD14.在Hive中,以下哪個(gè)配置屬性用于啟用動(dòng)態(tài)分區(qū)()。A、hive.exec.dynamic.partitionB、hive.optimize.dynamic.partitionC、hive.dynamic.partition.modeD、hive.partition.dynamic.enabled答案:ACD15.要在Hive中啟用LLAP(LowLatencyAnalyticalProcessing),哪個(gè)配置屬性應(yīng)該設(shè)置為true()。A、hive.llap.enabledB、hive.enable.llapC、hive.execution.llap.enabledD、hive.llap.execution.enabled答案:ABD16.Docker允許映射容器內(nèi)應(yīng)用的服務(wù)端口到本地宿主主機(jī),主要方式有()。A、映射所有接口地址B、映射到指定地址的指定端口C、映射到指定地址的任意端口D、映射到任意地址的指定端口答案:ABC17.Kafka的特性()。A、高吞吐量、低延遲B、可擴(kuò)展性、持久性、可靠性C、容錯(cuò)性D、高并發(fā)答案:ABCD18.Kafka相對(duì)傳統(tǒng)技術(shù)有什么優(yōu)勢(shì)說(shuō)法正確的是♂()。A、快速:單一的Kafka代理可以處理成千上萬(wàn)的客戶(hù)端,每秒處理數(shù)兆字節(jié)的讀寫(xiě)操作。B、可伸縮:在一組機(jī)器上對(duì)數(shù)據(jù)進(jìn)行分區(qū)和簡(jiǎn)化,以支持更大的數(shù)據(jù)C、持久:消息是持久性的,并在集群中進(jìn)行復(fù)制,以防止數(shù)據(jù)丟失D、設(shè)計(jì):它提供了容錯(cuò)保證和持久性答案:ABCD19.Flink的時(shí)間窗口有()。A、滾動(dòng)窗口B、滑動(dòng)窗口C、定時(shí)窗口D、會(huì)話(huà)窗口答案:ABD20.Flink程序由以下()組成。A、DataSink數(shù)據(jù)輸出B、DataNode數(shù)據(jù)節(jié)點(diǎn)C、Transformation算子D、ataSource數(shù)據(jù)源答案:ACD21.Flume可以應(yīng)用于哪些數(shù)據(jù)傳輸場(chǎng)景?()A、數(shù)據(jù)中心之間傳輸數(shù)據(jù)B、跨網(wǎng)絡(luò)傳輸數(shù)據(jù)C、日志數(shù)據(jù)傳輸D、數(shù)據(jù)庫(kù)備份和還原答案:ABCD22.hadoopHA啟動(dòng)后,以下哪些進(jìn)程運(yùn)行在master()?A、QuorumPeerMainB、SecondaryNameNodeC、NamenodeD、ResourceManager答案:ABCD23.關(guān)于Docker容器的run命令,下列參數(shù)匹配正確的有()。A、d:在后臺(tái)運(yùn)行容器B、i:已交互模式運(yùn)行容器C、p:隨機(jī)端口映射D、h:指定容器的hostname答案:ABD24.Flume的Channel類(lèi)型有哪些?()A、MemoryChannelB、FileChannelC、ForwardChannelD、ReplicatorChannel答案:ABD25.Flume的Spoolingdirectorysource有何特點(diǎn)?()A、可處理大文件B、可處理多個(gè)文件C、可自動(dòng)滾動(dòng)文件D、可自動(dòng)清理舊文件答案:ABCD26.Sparkdriver的功能是()。A、作業(yè)的主進(jìn)程B、負(fù)責(zé)了作業(yè)的調(diào)度C、負(fù)責(zé)向HDFS申請(qǐng)資源D、負(fù)責(zé)作業(yè)的解析答案:ABD27.要在Hive中配置HDFS的NameNodeURI,應(yīng)該設(shè)置哪個(gè)屬性()。A、node.uriB、node.uriC、D、node.uri答案:ABC28.與hadoop相比,Spark主要有()優(yōu)點(diǎn)。A、提供多種數(shù)據(jù)集操作類(lèi)型而不僅限于MapReduceB、數(shù)據(jù)集中式計(jì)算而更加高效C、提供了內(nèi)存計(jì)算,帶來(lái)了更高的迭代運(yùn)算效率D、基于DAG的任務(wù)調(diào)度執(zhí)行機(jī)制+C:F答案:ABCD29.Flink的兼容性體現(xiàn)在()。A、YARN能夠作為Flink集群的資源調(diào)度管理器B、能夠與Hadoop原有的Mappers和Reduces混合使用C、能夠使用Hadoop的格式化輸入和輸出D、能夠從本地獲取數(shù)據(jù)答案:ABCD30.SparkStreaming的基本輸入源有()。A、文件流B、kafkaC、套接字流D、RDD隊(duì)列流答案:ACD31.下列有關(guān)ZooKeeper中的節(jié)點(diǎn)路徑說(shuō)法正確的是()。A、節(jié)點(diǎn)路徑可以是臨時(shí)節(jié)點(diǎn)B、節(jié)點(diǎn)路徑可以是持久節(jié)點(diǎn)C、臨時(shí)節(jié)點(diǎn)會(huì)話(huà)結(jié)束后自動(dòng)刪除D、臨時(shí)節(jié)點(diǎn)不會(huì)自動(dòng)刪除答案:ABC32.關(guān)于dockerbuild命令支持的選項(xiàng),下列匹配正確的有()。A、network:指定run命令時(shí)網(wǎng)絡(luò)模式B、f:dockerfile名稱(chēng)C、add-host:添加自定義的主機(jī)名到IP的映射D、label:配置鏡像的標(biāo)簽答案:ABC33.以下哪些組件屬于Hadoop生態(tài)圈()。A、MySQLB、HiveC、HDFSD、Sqoop答案:BCD34.HadoopHDFS自身的局限性包括()。A、不適合做低延遲、細(xì)粒度訪(fǎng)問(wèn)B、無(wú)法高效存儲(chǔ)大量的小文件C、不支持多文件的寫(xiě)入及任意修改文件D、無(wú)法實(shí)現(xiàn)數(shù)據(jù)的冗余備份存儲(chǔ)答案:ABC35.ZooKeeper中的Watcher機(jī)制是通過(guò)以下()方式實(shí)現(xiàn)。A、回調(diào)函數(shù)B、輪詢(xún)機(jī)制C、線(xiàn)程池D、事件驅(qū)動(dòng)答案:AD36.ZooKeeper中的節(jié)點(diǎn)類(lèi)型包括()。A、持久節(jié)點(diǎn)B、臨時(shí)節(jié)點(diǎn)C、有序節(jié)點(diǎn)D、臨時(shí)有序節(jié)點(diǎn)答案:ABCD37.Hive中的數(shù)據(jù)存儲(chǔ)是如何分區(qū)的()。A、基于文件大小B、基于日期C、基于列名D、基于文件格式答案:BCD38.關(guān)于partition中的數(shù)據(jù)是如何保持到硬盤(pán)上的,說(shuō)法正確的是()。A、一個(gè)topic分為好幾個(gè)partition,每一個(gè)partition是以文件夾的形式保持在broker節(jié)點(diǎn)上面的B、每一個(gè)分區(qū)的命名是從序號(hào)0開(kāi)始遞增C、每一個(gè)partition目錄下多個(gè)segment文件(包含xx.index,xx.log),默認(rèn)是1GD、每個(gè)分區(qū)里面的消息是有序的,數(shù)據(jù)是一樣的答案:ABC39.kafka容錯(cuò)性說(shuō)話(huà)正確的是()。A、允許集群中節(jié)點(diǎn)失?。ㄈ舾北緮?shù)量為n,則允許n-1個(gè)節(jié)點(diǎn)失?。〣、殺死集群中的主節(jié)點(diǎn)還是可以使用C、殺死集群中所有的副節(jié)點(diǎn)還是可以使用D、無(wú)論結(jié)束的是主還是副broker,都不會(huì)影響kafka使用,只要還有一個(gè)副本答案:ABCD40.使用dockerps命令可以查看到的信息有()。A、容器IDB、鏡像名稱(chēng)C、容器的端口D、生存時(shí)間E、環(huán)境變量答案:ABCD41.Flume的攔截器可以完成哪些操作?()A、數(shù)據(jù)過(guò)濾B、數(shù)據(jù)轉(zhuǎn)換C、數(shù)據(jù)加密D、數(shù)據(jù)壓縮答案:ABC42.Sqoop目前支持兩種增量導(dǎo)入模式,分別是()和()模式。A、lastmodifiedB、appendC、--tableD、-target-dir答案:AB43.Kafka的消息傳遞可以保證消息的可靠性傳遞通過(guò)()。A、復(fù)制機(jī)制B、冗余機(jī)制C、重試機(jī)制D、容錯(cuò)機(jī)制答案:AC44.要讀取people.json文件生成DataFrame,可以使用下列()命令。A、spark.read.json("people.json")B、spark.read.text("people.json")C、spark.read.format("json").load("people.json")D、spark.read.format("csv").load("people.json")答案:AC45.下列關(guān)于鏡像操作命令匹配正確的有()。A、獲取鏡像:dockerpushB、查看鏡像:dockerimageC、創(chuàng)建鏡像:dockercreateD、上傳鏡像:dockeruploadE、查找鏡像:dockersearch答案:BE46.Flink流式處理的數(shù)據(jù)源類(lèi)型包括()。A、CollectionsB、JDBCC、SocketStreamsD、Files答案:ABCD47.Hive的查詢(xún)優(yōu)化是通過(guò)什么實(shí)現(xiàn)的()。A、TezB、MapReduceC、SparkD、Flink答案:ABC48.Flink常見(jiàn)的應(yīng)用場(chǎng)景包括()。A、數(shù)據(jù)流水線(xiàn)應(yīng)用B、事件驅(qū)動(dòng)型應(yīng)用C、地圖應(yīng)用D、數(shù)據(jù)分析應(yīng)用答案:ABD49.Docker在開(kāi)發(fā)和運(yùn)維過(guò)程中具有的優(yōu)勢(shì)有()。A、更快速的交付和部署B(yǎng)、更高效的資源利用C、更輕松的遷移擴(kuò)展D、更簡(jiǎn)單的更新管理答案:ABCD50.Hive中的分區(qū)是如何定義的()。A、在表的創(chuàng)建時(shí)定義B、在查詢(xún)時(shí)動(dòng)態(tài)定義C、在元數(shù)據(jù)存儲(chǔ)中定義D、在表的插入操作中定義答案:ABC51.關(guān)于ZooKeeper的特性說(shuō)法正確的是()。A、能改變ZooKeeper服務(wù)器狀態(tài)的操作稱(chēng)為事務(wù)操作B、是版本機(jī)制有效避免了數(shù)據(jù)更新時(shí)出現(xiàn)的先后順序問(wèn)題C、當(dāng)節(jié)點(diǎn)發(fā)生變化時(shí),通過(guò)watcher機(jī)制,可以讓客戶(hù)端得到通知D、watch能觸發(fā)多次答案:ABC52.Flink的Sink有哪些類(lèi)型()。A、RedisSinkB、KafkaSinkC、ElasticSearchSinkD、HiveSink答案:AB53.Stage的Task的數(shù)量不是由()決定。A、PartitionB、JobC、StageD、TaskScheduler答案:BCD54.Hive的數(shù)據(jù)存儲(chǔ)是如何組織的()。A、表B、分區(qū)C、桶(Bucket)D、列族(ColumnFamily)答案:ABC55.SparkContext可以從()讀取數(shù)據(jù)。A、本地磁盤(pán)B、webC、hdfsD、內(nèi)存答案:ACD56.Hadoop的運(yùn)行模式分為以下()種。A、單機(jī)模式B、偽分布模式C、全分布模式D、主備模式答案:ABC57.Sqoop中的--hive-drop-import-delims參數(shù)有什么作用?()A、在將數(shù)據(jù)從MySQL導(dǎo)入到Hive時(shí),刪除MySQL中存在的所有分隔符B、在將數(shù)據(jù)從MySQL導(dǎo)入到Hive時(shí),刪除MySQL中存在的所有換行符C、在將數(shù)據(jù)從MySQL導(dǎo)入到Hive時(shí),刪除Hive中存在的所有分隔符D、在將數(shù)據(jù)從MySQL導(dǎo)入到Hive時(shí),刪除Hive中存在的所有換行符答案:AC58.當(dāng)使用Sqoop將數(shù)據(jù)從MySQL導(dǎo)入到HDFS時(shí),以下()參數(shù)可以使用?A、--connectB、--usernameC、--passwordD、--table答案:ABCD59.當(dāng)使用Sqoop進(jìn)行數(shù)據(jù)導(dǎo)出時(shí),以下哪些()選項(xiàng)是正確的?A、Sqoop可以使用多個(gè)mapper同時(shí)進(jìn)行數(shù)據(jù)導(dǎo)出B、Sqoop導(dǎo)出的數(shù)據(jù)可以按照指定的列進(jìn)行排序C、Sqoop導(dǎo)出的數(shù)據(jù)可以插入到已存在的HDFS目錄中D、Sqoop導(dǎo)出的數(shù)據(jù)可以刪除已存在的HDFS目錄答案:ABC60.Flume的核心組件有哪些?()A、SourceB、ChannelC、SinkD、Receiver答案:ABC61.nginx可以提供的功能有()。A、作為HTTP服務(wù)器B、作為負(fù)載均衡服務(wù)器C、作為郵件代理服務(wù)器D、作為反向代理服務(wù)器答案:ABCD62.Hadoop核心主要由()部分組成。A、HDFSB、DFSC、MapReduceD、RDD答案:AC63.MLlib包括()。A、分類(lèi)模型B、聚類(lèi)模型C、特征抽取D、統(tǒng)計(jì)模型答案:ABCD64.管理自定義的網(wǎng)橋網(wǎng)絡(luò)的操作命令有()。A、dockernetworkcreateB、dockernetworkconnectC、dockernetworkdisconnectD、ockernetworkrm答案:ABCD65.Docker數(shù)據(jù)卷的操作有()。A、dockervolumecreateB、dockervolumeinspectC、dockervolumermD、ockervolumesave答案:ABC66.Flink支持的部署模式有()。A、Standalone模式B、Local模式C、YARN集群模式D、HDFS模式答案:ABC67.關(guān)于HadoopHDFS的文件操作,正確的是()。A、HDFS可以創(chuàng)建文件并寫(xiě)入數(shù)據(jù)B、HDFS可以查看文件內(nèi)容C、HDFS可以創(chuàng)建目錄D、HDFS可以更改文件內(nèi)容答案:ABC68.下列選項(xiàng)()是ZooKeeper的應(yīng)用場(chǎng)景。A、Master選舉B、分布式鎖C、分布式協(xié)調(diào)/通知D、存儲(chǔ)非關(guān)系型數(shù)據(jù)答案:ABC69.從RDD轉(zhuǎn)換得到DataFrame包含兩種典型的方法,分別是()。A、利用反射機(jī)制推斷RDD模式B、使用編程方式定義RDD模式C、利用投影機(jī)制推斷RDD模式D、利用互聯(lián)網(wǎng)機(jī)制推斷RDD模式答案:AB70.Flink的主要特性包括()。A、精確一次的狀態(tài)一致性保障B、批流一體化C、精密的狀態(tài)管理D、事件時(shí)間支持答案:ABCD71.zookeeper在kafka中的作用()。A、kafka將元數(shù)據(jù)信息維護(hù)在zookeeper上B、kafka的producer、consumer、topic、partition都需要依賴(lài)zookeeperC、kafka使用zookeeper來(lái)實(shí)現(xiàn)動(dòng)態(tài)的集群擴(kuò)展D、發(fā)送到topic的數(shù)據(jù)需要經(jīng)過(guò)zookeeper答案:AC72.利用數(shù)據(jù)卷容器可以對(duì)其中的數(shù)據(jù)卷進(jìn)行()操作。A、備份B、恢復(fù)C、壓縮D、遷移答案:ABCD73.在Hive中,以下哪個(gè)配置屬性用于指定HDFS存儲(chǔ)位置的根目錄()。A、hive.data.root.dirB、hive.hdfs.root.dirC、hive.storage.root.dirD、hive.fs.root.dir答案:ABC74.Docker的網(wǎng)絡(luò)類(lèi)型有()。A、bridgeB、overlayC、hostD、macvlanE、none答案:ABCDE75.ZooKeeper中的事務(wù)操作可以保證()特性。A、原子性B、一致性C、隔離性D、持久性答案:ABD76.Hive的分區(qū)和桶的主要區(qū)別是什么()。A、分區(qū)是物理存儲(chǔ)層面的,而桶是邏輯存儲(chǔ)層面的B、分區(qū)是邏輯存儲(chǔ)層面的,而桶是物理存儲(chǔ)層面的C、分區(qū)是由HiveMetastore管理的,而桶是用戶(hù)自定義的D、分區(qū)和桶在Hive中沒(méi)有區(qū)別答案:AC77.ZooKeeper中的數(shù)據(jù)節(jié)點(diǎn)可以存儲(chǔ)的數(shù)據(jù)類(lèi)型包括()。A、字符串B、整數(shù)C、浮點(diǎn)數(shù)D、二進(jìn)制數(shù)據(jù)答案:ABCD78.Flume可以用于哪些方面的數(shù)據(jù)處理?()A、數(shù)據(jù)集中B、數(shù)據(jù)過(guò)濾C、數(shù)據(jù)聚合D、數(shù)據(jù)分布式處理答案:ABCD79.Flume的攔截器支持哪些操作?()A、數(shù)據(jù)過(guò)濾B、數(shù)據(jù)轉(zhuǎn)換C、數(shù)據(jù)壓縮D、數(shù)據(jù)加密E、數(shù)據(jù)脫敏答案:ABCD80.要配置Hive的元數(shù)據(jù)存儲(chǔ)連接字符串,應(yīng)該設(shè)置哪個(gè)屬性()。A、hive.metastore.uriB、hive.metastore.connectionC、hive.metastore.jdbc.urlD、hive.metastore.connection.url答案:ACD81.Kafka負(fù)載均衡原理說(shuō)法正確的是()。A、♂producer根據(jù)用戶(hù)指定的算法,將消息發(fā)送到指定的partitionB、存在多個(gè)partiiton,每個(gè)partition有自己的replica,每個(gè)replica分布在不同的Broker節(jié)點(diǎn)上C、多個(gè)partition需要選取出leadpartition,leadpartition負(fù)責(zé)讀寫(xiě),并由zookeeper負(fù)責(zé)failoverD、通過(guò)zookeeper管理broker與consumer的動(dòng)態(tài)加入與離開(kāi)答案:ABCD82.要啟用Hive的Tez執(zhí)行引擎,應(yīng)該配置哪個(gè)屬性()。A、hive.execution.engineB、hive.exec.engineC、hive.tez.enableD、hive.use.tez答案:ABD83.ZooKeeper中的ACL(AccessControlList)用于()。A、控制節(jié)點(diǎn)的訪(fǎng)問(wèn)權(quán)限B、控制節(jié)點(diǎn)的讀寫(xiě)權(quán)限C、控制節(jié)點(diǎn)的刪除權(quán)限D(zhuǎn)、控制節(jié)點(diǎn)的創(chuàng)建權(quán)限答案:ABCD84.要啟用Hive的壓縮功能,應(yīng)該配置哪個(gè)屬性()。A、press.enableB、pressC、pression.codecD、pression答案:ACD85.下面是使用Sqoop將數(shù)據(jù)從Hive導(dǎo)入到MySQL的具體步驟()。A、創(chuàng)建Hive表B、插入數(shù)據(jù)C、使用Sqoop導(dǎo)出數(shù)據(jù)D、在MySQL中查看數(shù)據(jù)答案:ABCD86.Flume的HTTPSource和Sink組件支持哪些協(xié)議?()A、HTTPB、HTTPSC、AvroD、Thrift答案:ABD87.Flink組件中流類(lèi)型包括()。A、有界流B、無(wú)界流C、字符流D、文件流答案:AB88.Hive中的數(shù)據(jù)類(lèi)型包括哪些()。A、整數(shù)類(lèi)型B、字符串類(lèi)型C、時(shí)間類(lèi)型D、自定義數(shù)據(jù)類(lèi)型答案:ABCD89.Spark要想很好的支持SQL,需要完成三大過(guò)程。這三大過(guò)程包括()。A、加載loadB、解析parserC、優(yōu)化optimizerD、執(zhí)行execution答案:BCD90.Flume的HTTPSource和Sink組件支持哪些HTTP方法?()A、GETB、POSTC、PUTD、ELETE答案:BCD91.Docker的核心概念包括()。A、鏡像B、主機(jī)C、容器D、倉(cāng)庫(kù)E、引擎答案:ACD92.RDD的操作主要是()操作。A、轉(zhuǎn)換算子操作B、分組操作C、讀寫(xiě)操作D、行動(dòng)算子操作答案:AD93.Flink的特點(diǎn)包括()。A、流處理引擎B、可擴(kuò)展性C、高吞吐量、低延遲D、容錯(cuò)、可靠性答案:ABCD94.如果要在Hive中啟用動(dòng)態(tài)分區(qū)插入,哪個(gè)配置屬性應(yīng)該設(shè)置為true()。A、hive.dynamic.partition.insert.enableB、hive.partition.insert.dynamicC、hive.enable.dynamic.partition.insertD、hive.dynamic.insert.enable答案:ACD95.()是流計(jì)算的處理流程。A、實(shí)時(shí)數(shù)據(jù)存儲(chǔ)B、實(shí)時(shí)數(shù)據(jù)計(jì)算C、實(shí)時(shí)查詢(xún)服務(wù)D、實(shí)時(shí)數(shù)據(jù)采集答案:BCD96.RDD有()缺陷。A、不支持細(xì)粒度的寫(xiě)和更新操作(如網(wǎng)絡(luò)爬蟲(chóng))B、基于內(nèi)存的計(jì)算C、擁有schema信息D、不支持增量迭代計(jì)算答案:AD97.Kafka的消息傳遞可以使用的序列化器包括()。A、JSONB、AvroC、ProtobufD、XML答案:ABC98.ZooKeeper中的SEQUENTIAL節(jié)點(diǎn)的特點(diǎn)是()。A、有序節(jié)點(diǎn)B、無(wú)序節(jié)點(diǎn)C、節(jié)點(diǎn)名稱(chēng)自動(dòng)遞增D、節(jié)點(diǎn)名稱(chēng)不自動(dòng)遞增答案:AC99.Sqoop中哪些參數(shù)可以用于指定要導(dǎo)入/導(dǎo)出的表?()A、--tableB、--columnC、--whereD、--order答案:AC100.Sqoop是一個(gè)用于在Hadoop和結(jié)構(gòu)化數(shù)據(jù)存儲(chǔ)(如關(guān)系型數(shù)據(jù)庫(kù))之間傳輸數(shù)據(jù)的工具。以下哪些()是Sqoop的主要參數(shù)?A、--connectB、--usernameC、--tableD、-target-dir答案:ABCD101.后端容器化環(huán)境部署中使用的數(shù)據(jù)庫(kù)一般有()。A、ccessB、kafkaC、RedisD、MySQLE、MongoDB答案:CDE102.關(guān)于spark中數(shù)據(jù)傾斜引發(fā)原因正確的選項(xiàng)有()。A、key本身分布不均衡B、計(jì)算方式有誤C、過(guò)多的數(shù)據(jù)在一個(gè)task里面D、shuffle并行度不夠答案:ABCD103.下列屬于RDD的行動(dòng)算子的是()。A、count()B、first()C、take()D、filter()答案:ABC104.Linux的特點(diǎn)是以下()方面。A、開(kāi)放源代碼的程序軟件,可自由修改。B、與Unix系統(tǒng)不兼容,具備幾乎所有Unix的優(yōu)秀特性。C、可自由傳播,免費(fèi)使用,無(wú)任何商業(yè)化版權(quán)制約。D、適合Intel等x90CPU系列架構(gòu)的計(jì)算機(jī)。答案:ACD105.Master的ElectedLeader事件后不做()操作。A、通知driverB、通知workerC、注冊(cè)applicationD、直接ALIVE答案:ABC106.在Hive中,以下哪個(gè)配置屬性用于指定Hive表的默認(rèn)文件格式()。A、hive.default.input.formatB、hive.table.default.file.formatC、hive.default.file.input.formatD、hive.input.format.default答案:ABC107.Hadoop的優(yōu)點(diǎn)有哪些()?A、擴(kuò)容能力強(qiáng)B、成本低C、速度快D、占用資源少答案:AB108.Flink的緩存機(jī)制包含以下哪些內(nèi)容(
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶(hù)所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶(hù)上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶(hù)上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶(hù)因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 2024年青島房地產(chǎn)交易稅收優(yōu)惠政策合同
- 2024年金融科技產(chǎn)品研發(fā)與測(cè)試合同
- 2025年度城市基礎(chǔ)設(shè)施建設(shè)與運(yùn)營(yíng)管理服務(wù)合同3篇
- 2024年網(wǎng)絡(luò)劇拍攝聯(lián)合協(xié)議:場(chǎng)地、技術(shù)與創(chuàng)意共享2篇
- 2024年新能源汽車(chē)租賃與充電設(shè)施運(yùn)營(yíng)維護(hù)合同3篇
- 2024年項(xiàng)目部木工班組安全施工及現(xiàn)場(chǎng)安全管理協(xié)議3篇
- 2024年車(chē)輛交易綜合服務(wù)協(xié)議模板一
- 2024門(mén)窗行業(yè)技術(shù)升級(jí)改造項(xiàng)目合同3篇
- 2025年度文化產(chǎn)業(yè)項(xiàng)目投資合作協(xié)議書(shū)6篇
- 2025年度材料回收利用合同修訂版模板3篇
- 專(zhuān)項(xiàng)債券培訓(xùn)課件
- 2025年1月普通高等學(xué)校招生全國(guó)統(tǒng)一考試適應(yīng)性測(cè)試(八省聯(lián)考)語(yǔ)文試題
- CNAS-CL01-G001:2024檢測(cè)和校準(zhǔn)實(shí)驗(yàn)室能力認(rèn)可準(zhǔn)則的應(yīng)用要求
- 校園重點(diǎn)防火部位消防安全管理規(guī)定(3篇)
- 臨時(shí)施工圍擋安全應(yīng)急預(yù)案
- ICP-網(wǎng)絡(luò)與信息安全保障措施-1.信息安全管理組織機(jī)構(gòu)設(shè)置及工作職責(zé)
- 暨南大學(xué)珠海校區(qū)財(cái)務(wù)辦招考財(cái)務(wù)工作人員管理單位遴選500模擬題附帶答案詳解
- 碼頭安全生產(chǎn)管理制度
- 部隊(duì)冬季常見(jiàn)病的防治
- DB51-T 2944-2022 四川省社會(huì)組織建設(shè)治理規(guī)范
- 4《古詩(shī)三首》(說(shuō)課稿)2024-2025學(xué)年統(tǒng)編版語(yǔ)文三年級(jí)上冊(cè)
評(píng)論
0/150
提交評(píng)論