2024年世界職業(yè)院校技能大賽中職組“大數(shù)據(jù)應(yīng)用與服務(wù)組”賽項(xiàng)考試題庫(含答案)_第1頁
2024年世界職業(yè)院校技能大賽中職組“大數(shù)據(jù)應(yīng)用與服務(wù)組”賽項(xiàng)考試題庫(含答案)_第2頁
2024年世界職業(yè)院校技能大賽中職組“大數(shù)據(jù)應(yīng)用與服務(wù)組”賽項(xiàng)考試題庫(含答案)_第3頁
2024年世界職業(yè)院校技能大賽中職組“大數(shù)據(jù)應(yīng)用與服務(wù)組”賽項(xiàng)考試題庫(含答案)_第4頁
2024年世界職業(yè)院校技能大賽中職組“大數(shù)據(jù)應(yīng)用與服務(wù)組”賽項(xiàng)考試題庫(含答案)_第5頁
已閱讀5頁,還剩118頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

2024年世界職業(yè)院校技能大賽中職組“大數(shù)據(jù)應(yīng)用與服務(wù)組”

賽項(xiàng)考試題庫(含答案)

一、單選題

1.ZooKeeper的特點(diǎn)不包括()。

A、順序一致性

B、原子性

C、可靠性

D、復(fù)合系統(tǒng)映像

答案:D

2.在hadoop配置中core-site,xml的配置是()參數(shù)。

A、集群全局參數(shù)

B、HDFS參數(shù)

C、Mapreduce參數(shù)

D、集群資源管理系統(tǒng)參數(shù)

答案:A

3.當(dāng)Kafka中日志片段大小達(dá)到()時(shí),當(dāng)前日志片段會(huì)被關(guān)閉。

A、1M

B、100M

C、1GB

D、10GB

答案:C

4Hive中的哪個(gè)配置參數(shù)用于指定Hive的臨時(shí)文件目錄()?

A、hive.tmp.dir

Bvhive.temp.directory

C、hive.temp.dir

D、hive.tmp.directory

答案:A

5.Flume的哪個(gè)版本加入了Kafka作為源和匯點(diǎn)?()

A、1.X版本

B、2.X版本

C、3.X版本

D、4.X版本

答案:B

6.Kafka的消息是如何進(jìn)行順序?qū)懭氲模?)

A、順序?qū)懭氲酱疟P

B、順序?qū)懭氲絻?nèi)存

C、順序?qū)懭氲骄彺?/p>

D、順序?qū)懭氲剿饕募?/p>

答案:A

7.Stage的Task的數(shù)量由()決定。

A、Partition

B、Job

C、Stage

D、TaskScheduIer

答案:A

8.sqoop的組件功能是()o

A、sqoop只能實(shí)現(xiàn)關(guān)系型數(shù)據(jù)庫向非關(guān)系型數(shù)據(jù)傳輸數(shù)據(jù)

B\sqoop是關(guān)系型數(shù)據(jù)庫

C、sqoop實(shí)現(xiàn)在關(guān)系型數(shù)據(jù)庫和非關(guān)系型數(shù)據(jù)庫之間時(shí)行數(shù)據(jù)傳輸

D、sqoop是非關(guān)系型數(shù)據(jù)庫

答案:C

9.ZooKeeper中的一次寫操作是原子的嗎?()

A、是,寫操作是原子的

B、否,寫操作可能不是原子的

C、取決于寫操作的類型

D、取決于節(jié)點(diǎn)的類型

答案:A

10.FIink的高可用性(HighAvailabiIity)設(shè)置通常需要配置的組件是()。

A、JobManager和TaskManager

B\ResourceManager和NodeManager

GNameNode和DataNode

D、ZooKeeper集群

答案:D

11.在Flink中,水位線是()生成的。

A、基于系統(tǒng)時(shí)間的周期性

B、基于事件時(shí)間的周期性

C、由用戶手動(dòng)指定

D、實(shí)時(shí)

答案:A

12.典型的麗$01.數(shù)據(jù)庫是()。

A、Hive

B、MySQL

C、Hbase

D\OracIe

答案:C

13.Flink的窗口操作通常在()執(zhí)行,以對(duì)數(shù)據(jù)進(jìn)行分組、聚合和統(tǒng)計(jì)。

A、數(shù)據(jù)產(chǎn)生時(shí)

B、數(shù)據(jù)進(jìn)入Flink時(shí)

C、數(shù)據(jù)在窗口中間時(shí)

D、數(shù)據(jù)離開Flink時(shí)

答案:C

14.要在Hive中啟用Kerberos認(rèn)證,應(yīng)該設(shè)置哪個(gè)配置參數(shù)()?

A、hive.security.authentication

B\hive.kerberos.enabIed

C、hive.auth.kerberos

D\hive.authentication.method

答案:A

15.Hive中的自動(dòng)分區(qū)是通過哪個(gè)配置參數(shù)啟用的()?

A、hive.auto,partition

Bvhive.partition.auto

C、hive.exec,dynamic,partition

D、hive.partitioning.auto

答案:c

16.以下選項(xiàng)哪個(gè)是MapReduce正確的運(yùn)行模型()。

A、Reduce-Map-ShuffIe

B、ShuffIe-Map-Reduce

C、Map-ShuffIe-Reduce

D、Map-Reduce-ShuffIe

答案:c

17.將一個(gè)RDD轉(zhuǎn)換為DataFrame的方法是()。

A、dataFrame()

B\toDataFrame0

C、DF0

D、toDF0

答案:D

18.Hadoop集群中存在的主要性能瓶頸是()。

A、CPU

B、網(wǎng)絡(luò)

C\磁盤10

D、內(nèi)存

答案:C

19.以下選項(xiàng)中說法正確的是()。

A、DAG是彈性分布式數(shù)據(jù)集的簡(jiǎn)稱,是分布式內(nèi)存的一個(gè)抽象概念,提供了一

種高度受限的共享內(nèi)存模型

B、Application是運(yùn)行在工作節(jié)點(diǎn)的一個(gè)進(jìn)程,負(fù)責(zé)運(yùn)行Task

C\Job是運(yùn)行在Executor上的工作單元

D、Stage是Job的基本調(diào)度單位,一/Job會(huì)分為多組Task,每組Task被稱為

Stage

答案:D

20.Dataset最終在()版本中被定義成Spark新特性。

A、Sparkl.6

B、Sparkl.8

C、Spark2.0

D\Spark2.2

答案:c

21.在Hive中,哪個(gè)配置參數(shù)用于指定HiveCLI的歷史命令記錄目錄()?

A、hive.history,fiIe.directory

Bvhive.query.Iog.dir

C、hive.cIi.history,directory

D、hive.command.Iog.dir

答案:c

22.Docker中的每一個(gè)工作都可以抽象為一個(gè)()。

A、實(shí)例

B、進(jìn)程

C、Job

D、請(qǐng)求

答案:C

23.關(guān)于Hivemetastore的三種模式的描述錯(cuò)誤的是()。

A、Derby方式是內(nèi)嵌的方式,也是默認(rèn)的啟動(dòng)方式,一般用于單元測(cè)試

B、local模式中,使用MySQL本地部署實(shí)現(xiàn)metastore

C、remote模式為遠(yuǎn)程MySQL

D、erby方式在同一時(shí)間只能有多個(gè)進(jìn)程連接使用數(shù)據(jù)庫

答案:D

24.Kafka是一種()。

A、數(shù)據(jù)庫系統(tǒng)

B、分布式消息隊(duì)列系統(tǒng)

C、緩存系統(tǒng)

D、文件系統(tǒng)

答案:B

25.在Hive中,以下哪個(gè)配置參數(shù)用于指定Hive的執(zhí)行引擎為Spark()?

A、hive.execution.engine=spark

B\hive.spark,execution.engine=true

C、hive.spark,engine.enabIed=true

D、hive.query,engine=spark

答案:A

26.Hive中的哪個(gè)配置參數(shù)用于指定Hive元數(shù)據(jù)存儲(chǔ)的連接URL()?

Avhive.metastore,db.urI

B、hive.metastore.uri

C、hive.metastore,connection.urI

Dvhive.metastore,db.connection

答案:A

27.將大數(shù)據(jù)平臺(tái)數(shù)據(jù)導(dǎo)出到mysqI可以使用()工具。

A、Hadoop

B、Sqoop

C、Hive

D、XshelI

答案:B

28.在導(dǎo)入開始之前,Sqoop檢索出表中所有的列以及列的SQL數(shù)據(jù)類型,這些SQ

L類型被映射什么類型()。

A、C

B、C++

C、Java

D\Python

答案:c

29.Flink的CEP(CompIexEventProcessing)庫用于(),幫助檢測(cè)和處理特定

的事件模式。

A、執(zhí)行復(fù)雜數(shù)據(jù)處理操作

B、處理圖形數(shù)據(jù)

C、處理實(shí)時(shí)事件流

D、控制數(shù)據(jù)流速度

答案:C

30.關(guān)于DataFrame的優(yōu)勢(shì),以下描述錯(cuò)誤的是O。

A、DataFrame提升了Spark框架的執(zhí)行效率

B\DataFrame減少了數(shù)據(jù)讀取時(shí)間

C\DataFrame可以優(yōu)化執(zhí)行計(jì)劃

D\ataFrame可以完全替換RDD

答案:D

31.Kafka的高可用性是通過什么機(jī)制實(shí)現(xiàn)的?()

A、數(shù)據(jù)復(fù)制

B、數(shù)據(jù)壓縮

C、數(shù)據(jù)分片

D、數(shù)據(jù)緩存

答案:A

32.使用Dockerrm命令刪除容器時(shí)只刪除容器的鏈接,需要使用的命令選項(xiàng)是()。

A、f

B、I

C、v

D、i

答案:B

33.在hive中下列哪個(gè)命令不可以實(shí)現(xiàn)去重()。

A、distinet

B、groupby

Cvrow_number

Dvhaving

答案:D

34.關(guān)于SparkSQL,以下描述錯(cuò)誤的是()。

A、SparkSQL使用的數(shù)據(jù)抽象并非是DataFrame,而是RDD

B、在Spark的早期版本中,DataFrame被稱為SchemaRDD

C\DataFrame是一種以RDD為基礎(chǔ)的分布式數(shù)據(jù)集

D、ataFrame可以完成RDD的絕大多數(shù)功能

答案:A

35.Kafka的消息壓縮算法可以選擇的方式是()。

A、GZIP

B、Snappy

C、LZ4

D、所有以上

答案:D

36.FIink的廣播狀態(tài)(Broadcaststate)用于()。

A、在所有任務(wù)之間共享狀態(tài)

B、保持?jǐn)?shù)據(jù)流的連續(xù)性

C、加速數(shù)據(jù)處理

D、控制數(shù)據(jù)流速度

答案:A

37.Sqoop將導(dǎo)入或?qū)С雒罘g成什么程序來實(shí)現(xiàn)導(dǎo)入導(dǎo)出()o

A、Spark

B、Storm

C\MapReduce

D\Tez

答案:C

38.關(guān)于ZooKeeper說法錯(cuò)誤的是()。

A、ZooKeeper是一個(gè)高可用的分布式數(shù)據(jù)管理和協(xié)調(diào)框架

B、能夠很好的保證分布式環(huán)境中數(shù)據(jù)的一致性

C、越來越多的分布式系統(tǒng)(HadoopvHBase、Kafka)中使用ZooKeeper

D、Hadoop的高可用不需要用到ZooKeeper

答案:D

39.DockerfiIe配置文件使用()命令指定基礎(chǔ)鏡像。

A、IMPORT

B、GET

C、OPEN

D、FROM

答案:D

40.測(cè)試Sqoop是否能夠正常連接MySQL數(shù)據(jù)庫命令是()。

A、sqoopIist-database-connectjdbc:mysqI://127.0.0.1:3306/-usernamer

oot-P

B、sqoopIist-databases-connectionjdbc:mysqI://127.0.0.1:3306/-usern

ameroot-P

CvsqoopIist-databases-connectjdbc:mysqI://127.0.0.1:3306/-username

root-L

D、sqoopIist-databases-connectjdbc:mysqI://127.0.0.1:3306/-username

root-P

答案:D

41.hadoop2.0與hadoopl.0區(qū)別()。

A、增加MapReduce2

B、增加YARN

G增加HDFS2

D、增加容錯(cuò)機(jī)制

答案:B

42.Sqoop中哪個(gè)參數(shù)用于指定要使用的分隔符,以便在導(dǎo)入數(shù)據(jù)時(shí)正確處理字

段?()

A、-fieId-separator

B\-fs

C、-deIimiter

D、-spIit-by

答案:A

43.SparkSQL中,model函數(shù)可以接收的參數(shù)有哪些()。

AvOverride、Ignore

B、Override、Ignore、Append

C、Ignore、Append、ErrorIfExists

DvOverridexIgnore、AppendsErrorIfExists

答案:D

44.在ZooKeeper中,每個(gè)節(jié)點(diǎn)都有一個(gè)唯一的標(biāo)識(shí)符,這個(gè)標(biāo)識(shí)符是()。

A、ZNode

B、EphemeraINode

C、PersistentNode

D、ZooNode

答案:A

45.ZooKeeper中的一次讀操作是原子的嗎?()

A、是,讀操作是原子的

B、否,讀操作可能不是原子的

C、取決于讀操作的類型

D、取決于節(jié)點(diǎn)的類型

答案:A

46.FIink的時(shí)間語義(TimeSemantics)中的事件時(shí)間(EventTime)和處理時(shí)

間(ProcessingTime)的區(qū)別是()。

A、事件時(shí)間是事件發(fā)生的時(shí)間,處理時(shí)間是事件進(jìn)入Flink的時(shí)間

B、事件時(shí)間是事件進(jìn)入Flink的時(shí)間,處理時(shí)間是事件發(fā)生的時(shí)間

C、事件時(shí)間和處理時(shí)間是相同的

D、事件時(shí)間和處理時(shí)間沒有明確的定義

答案:A

47.在Hive中,以下哪個(gè)配置參數(shù)用于指定Hive執(zhí)行計(jì)劃的輸出目錄()?

A、hive.query,pIan.output,directory

B、hive.exec,pIan.output,directory

C、hive.pIan.output,directory

D、hive.query,execution.directory

答案:A

48.啟動(dòng)一個(gè)容器的操作命令是()。

A、dockerstart

B、dockeropen

Cvdockernew

Dvockergo

答案:A

49.Flink的本地模式(LocaIMode)和集群模式(CIusterMode)之間的主要區(qū)

別是()。

A、部署方式

B、編程語言

C、安全性設(shè)置

D、并行度設(shè)置

答案:A

50.消費(fèi)者出現(xiàn)活鎖問題時(shí)應(yīng)該()。

A、增加max.poll,intervaI.ms相關(guān)參數(shù)

B、減少消費(fèi)者數(shù)量

C、重啟集群

D、提IWJpoII頻率

答案:A

51.Hive中分組的關(guān)鍵字是什么()?

Axgroupby

Bvorderby

C、distributeby

D、sortby

答案:A

52.關(guān)于Hive數(shù)據(jù)傾斜問題描述正確的是()。

A、不需要了解業(yè)務(wù),對(duì)業(yè)務(wù)進(jìn)行數(shù)據(jù)探查無法解決數(shù)據(jù)傾斜

B、每一個(gè)數(shù)據(jù)傾斜的作業(yè)都需要優(yōu)化

C、小文件合并不會(huì)解決數(shù)據(jù)傾斜的問題

D、可以適當(dāng)?shù)耐ㄟ^控制mapper和reducer來控制數(shù)據(jù)傾斜的問題

答案:D

53.在Docker的運(yùn)行過程中,對(duì)鏡像的操作不包括()。

A、deIete

B、search

C、puII

Dvpush

答案:A

54.關(guān)于SparkStreaming的優(yōu)點(diǎn),不包括()。

A、易用性

B、容錯(cuò)性

C、易整合性

D、低吞吐量

答案:D

55.下列關(guān)于MapReduce說法不正確的是()。

A、MapReduce是一種計(jì)算框架

B\MapReduce來源于googIe的學(xué)術(shù)論文

C\MapReduce程序只能用java語言編寫

D\MapReduce隱藏了并行計(jì)算的細(xì)節(jié),方便使用

答案:C

56.以下關(guān)于Spark中的RDD的說法,錯(cuò)誤的是()。

A、RDD就是一個(gè)分布式對(duì)象集合,本質(zhì)上是一個(gè)只讀的分區(qū)記錄集合

B、每個(gè)RDD可分成多個(gè)分區(qū),每個(gè)分區(qū)就是一個(gè)數(shù)據(jù)集片段

C、RDD提供了一種高度共享內(nèi)存模型,RDD既可以讀,也可以直接修改

D、RDD的不同分區(qū)可以被保存到集群中不同的節(jié)點(diǎn)上,從而可以在集群中的不

同節(jié)點(diǎn)上進(jìn)行并行計(jì)算

答案:c

57.以下關(guān)于Spark計(jì)算框架,說法錯(cuò)誤的是()。

A、Spark支持內(nèi)存計(jì)算

B、Spark框架是使用Java編寫的

C、Spark提供了完整而強(qiáng)大的技術(shù)棧,包括SQL查詢、流式計(jì)算、機(jī)器學(xué)習(xí)和

圖算法組件

D\Spark可運(yùn)行于獨(dú)立的集群模式中,可運(yùn)行于Hadoop中,也可運(yùn)行于Amazo

nEC2等云環(huán)境中

答案:B

58.在Hadoop生態(tài)組件中,哪個(gè)產(chǎn)品可用于復(fù)雜的批量數(shù)據(jù)處理。()

A、MapReducevHive

B、ImpaIa

C、Storm

D、Mahout

答案:A

59.在Hive中,以下哪個(gè)配置參數(shù)用于指定Hive服務(wù)器的端口號(hào)()?

A、hive,server,port

B、hive.server2,thrift.port

Cvhive.server,rpc.port

Dvhive,thrift,server.port

答案:B

60.HadoopMapReduce支持多種語言編程,下列說法不正確的是()。

A、可以用JAVA語言編寫MapReduce應(yīng)用程序

B、可以用C/C++語言編寫MapReduce應(yīng)用程序

C、可以用Python語言編寫MapReduce應(yīng)用程序

D、可以用javascript語言編寫MapReduce應(yīng)用程序

答案:D

61.查看HDFS的報(bào)告命令是0o

A、bin/hdfsdfsadmin-report

B、in/hdfs-report

C、bin/hdfsdeadmin-report

D、bin/hdfsdfs-report

答案:A

62.以下選項(xiàng)哪個(gè)是HDFS的名稱節(jié)點(diǎn)()。

A、DataNode

B、SecondaryNode

C、Node

DvNameNode

答案:D

63.SparkJob默認(rèn)的調(diào)度模式是()。

A、FIFO

B、FAIR

C\無

D、運(yùn)行時(shí)指定

答案:A

64.Flume的哪個(gè)版本引入了Kafka作為其事件源和接收器?()

A、FIume1.6

B、FIume1.7

C、DH5.0

D、CDH5.1

答案:c

65.在ZooKeeper中,關(guān)于節(jié)點(diǎn)的ACL(訪問控制列表)說法錯(cuò)誤的是O。

A、CL可以用于控制節(jié)點(diǎn)的讀寫權(quán)限

B、ACL可以定義多個(gè)權(quán)限組合

C、ACL可以設(shè)置到子節(jié)點(diǎn)上并繼承父節(jié)點(diǎn)的權(quán)限

D、ACL只能設(shè)置在持久節(jié)點(diǎn)上

答案:D

66.查看Docker所有容器的命令是()。

A、dockerps

B、dockerps-a

C、dockerpsaII

D、ockeraII

答案:B

67.Flume的事件Body可以包含什么類型的數(shù)據(jù)?()

A、String,Byte數(shù)組,字節(jié)流,MapVString,String>和自定義對(duì)象序列化后的數(shù)

據(jù)。

B\String,Map<String,String>和自定義對(duì)象序列化后的數(shù)據(jù)。

C、Byte數(shù)組,字節(jié)流和自定義對(duì)象序列化后的數(shù)據(jù)。

D、String和自定義對(duì)象序列化后的數(shù)據(jù)。

答案:A

68.在ZooKeeper中,節(jié)點(diǎn)可以設(shè)置監(jiān)聽器嗎?()

A、是,可以設(shè)置監(jiān)聽器

B、否,節(jié)點(diǎn)沒有監(jiān)聽功能

C、取決于節(jié)點(diǎn)的類型

D、取決于節(jié)點(diǎn)的權(quán)限設(shè)置

答案:A

69.Flink中的轉(zhuǎn)換算子(TransformationOperator)通常用于()。

A、計(jì)算作業(yè)的結(jié)果

B、控制作業(yè)的執(zhí)行順序

C、定義數(shù)據(jù)源

D、過濾和轉(zhuǎn)換數(shù)據(jù)流

答案:D

70.Flink的安裝過程中,通常需要設(shè)置()來指定Flink的根目錄。

A、JAVA_HOME

B、PATH

C、FLINK_HOME

D、FLINK_PATH

答案:C

71.0不是Spark的四大組件。

A、SparkStreaming

B、MlIib

C、GraphX

D、SparkR

答案:D

72.關(guān)于Dataset,下列說法錯(cuò)誤的是()。

AvDataset能從RDD中構(gòu)建

B、Dataset提供了特定域?qū)ο笾械娜躅愋图?/p>

C、Dataset結(jié)合了RDD和DataFrame的優(yōu)點(diǎn)

D、ataset可以通過SparkSession中的createDataset來創(chuàng)建

答案:B

73.下列()不是RDD的緩存方法。

A、persist0

B、Cache()

C、Memory0

D、以上都不是

答案:C

74.在Hive中,以下哪個(gè)配置參數(shù)用于指定Hive元數(shù)據(jù)存儲(chǔ)的數(shù)據(jù)庫類型()?

Avhive.metastore,uris

B、hive.metastore,schema

C、hive.metastore,db.type

D、hive.metastore,db.urI

答案:c

75.下列描述中,哪項(xiàng)不屬于Sqoop的缺點(diǎn)()。

A、無法控制任務(wù)的并發(fā)度

B、格式緊耦合

C、安全機(jī)制不夠完善

D、connector必須符合JDBC模型

答案:A

76.Hive中的配置文件通常位于哪個(gè)目錄中()?

A、/etc/hive/conf

B、/etc/hadoop/conf

C、/etc/hive/

D、/etc/hive/config

答案:A

77.Flume的哪個(gè)攔截器可以按類型區(qū)分事件?()

A、ETL攔截器

B、分區(qū)攔截器

C、以上都不是

D、以上都是

答案:A

78.yarn狀態(tài)的查詢urI為()。

A、http://yarn:8088

B、http://yarn:50070

C、http://master:8088

D、http://master:50070

答案:c

79.Flume如何處理故障恢復(fù)?()

A、使用事務(wù)性機(jī)制

B、使用重試機(jī)制

C、使用斷點(diǎn)續(xù)傳機(jī)制

D、以上都不是

答案:C

80.Hive是由哪家公司開源的()。

A、GoogIe

B、Facebook

C、LinkedIn

D、NetfIix

答案:B

81.關(guān)于MapReduce優(yōu)點(diǎn),下列說法不正確的是()。

A、高容錯(cuò)性

B、適合PB級(jí)以上海量數(shù)據(jù)的離線處理

C、良好的擴(kuò)展性

D、適合做實(shí)時(shí)計(jì)算

答案:D

82.Flink最常用的編程語言是()。

A、Java

B、Python

C、SeaIa

D\C++

答案:A

83.ZooKeeper中的一致性協(xié)議ZAB是基于()算法實(shí)現(xiàn)。

A、2PC(Two-PhaseCommit)算法

B、Raft算法

C、Paxos算法

D\3PC(Three-PhaseCommit)算法

答案:C

84.Docker的()命令用于構(gòu)建鏡像。

A、create

B、add

C、build

D、new

答案:C

85.DStream的轉(zhuǎn)換操作方法中,()方法可以直接調(diào)用RDD上的操作方法。

A、countByKey()

B、updateStateByKey(func)

C、ogroup(otherStream,[numTasks])

D\transform(func)

答案:D

86.下列關(guān)于leader和follower的說法正確的是()。

A、一個(gè)topic的每個(gè)分區(qū)可以沒有l(wèi)eader

B\一?""btopic的每個(gè)分區(qū)可以沒有follower

C、消費(fèi)者消費(fèi)數(shù)據(jù)的對(duì)象都是leader

D\follower從Ieader中同步數(shù)據(jù)有一定延遲

答案:C

87.HMaster的主要作用是()。

A、用于啟動(dòng)任務(wù)管理多個(gè)HRegionServer

B、負(fù)責(zé)響應(yīng)用戶I/O請(qǐng)求,向HDFS文件系統(tǒng)讀寫數(shù)據(jù)

C、負(fù)責(zé)協(xié)調(diào)集群中的分布式組件

D、最終保存HBase數(shù)據(jù)行的文件

答案:A

88.Flume的哪個(gè)版本加入了對(duì)Thrift事件的的支持?。

A、FIume1.0

B、FIume1.1

C、FIume1.2

D\FIume1.3

答案:B

89.Flink的容錯(cuò)機(jī)制是()工作的,它定期記錄數(shù)據(jù)流的狀態(tài),以便在發(fā)生故

障時(shí)進(jìn)行恢復(fù)。

A、基于備份數(shù)據(jù)

B、基于檢查點(diǎn)

C、基于異常處理

D、基于數(shù)據(jù)重播

答案:B

90.在ZooKeeper中,節(jié)點(diǎn)的數(shù)據(jù)版本是如何維護(hù)的?()

A、自動(dòng)遞增

B、手動(dòng)指定

C、根據(jù)節(jié)點(diǎn)的創(chuàng)建時(shí)間確定

D、隨機(jī)生成

答案:A

91.設(shè)用壓力測(cè)試測(cè)出機(jī)器寫入速度是20M/s一臺(tái),峰值的業(yè)務(wù)數(shù)據(jù)的速度是10

OM/s,副本數(shù)為6,預(yù)估需要部署Kafka機(jī)器數(shù)量為()。

A、6.0

B、12.0

C、13.0

D、20.0

答案:C

92.Kafka的消費(fèi)者可以以什么方式進(jìn)行消息偏移量的管理?()

A、手動(dòng)管理

B、自動(dòng)管理

C、隨機(jī)管理

D、循環(huán)管理

答案:B

93.以下哪個(gè)參數(shù)在sqoop命令中用于指定要?jiǎng)h除HDFS的目標(biāo)目錄?()

Av-deIete-target-dir

B、一target-dir

C、一deIete-dir

Dv-deIete

答案:A

94.namenode在()模式下hdfs文件系統(tǒng)無法修改和寫入文件。

A、安全模式

B、維護(hù)模式

C、同步模式

D、待機(jī)模式

答案:A

95.Flink的核心概念之一是()o

A、數(shù)據(jù)表

B、數(shù)據(jù)流

C、數(shù)據(jù)庫

D、數(shù)據(jù)倉庫

答案:B

96.將nginx容器接入自定義的myops網(wǎng)絡(luò)的操作命令是()。

A、dockernetworkjoinmyopsnginx

B、dockernetworkconnmyopsnginx

C、dockernetworkconnectmyopsnginx

Dvockernetworkconnectnginxmyops

答案:c

97.在Flink的配置文件中,()通常用來指定Flink任務(wù)并行度。

A、paraIleiism.defau11

B、task,paraIIeIism

C、paraIIeIism.defauIt-task

D、task,defauIt-paraIIeIism

答案:D

98.Flume的哪個(gè)版本開始支持Avro作為數(shù)據(jù)傳輸格式?()

A、1.X版本

B、2.X版本

C、3.X版本

D\4.X版本以后

答案:D

99.下列語句中描述錯(cuò)誤的是()o

A、可以通過CLI方式'JavaApi方式調(diào)用Sqoop

B\Sqoop底層會(huì)將Sqoop命令轉(zhuǎn)換為MapReduce任務(wù),并通過Sqoop連接器進(jìn)行

數(shù)據(jù)的導(dǎo)入導(dǎo)出操作

C、Sqoop是獨(dú)立的數(shù)據(jù)遷移工具,可以在任何系統(tǒng)上執(zhí)行

D\如果在Hadoop分布式集群環(huán)境下,連接MySQL服務(wù)器參數(shù)不能是"localhos

t”或“127.0.0.1"

答案:C

100.Flume的Snk組件負(fù)責(zé)什么?()

A、將數(shù)據(jù)從Channel中讀取并寫入目標(biāo)位置

B、將數(shù)據(jù)從Channel中讀取并發(fā)送到下一組件

C、從Channel中讀取數(shù)據(jù)并將其寫入接收器

D、從Channel中讀取數(shù)據(jù)并將其寫入目標(biāo)位置。

答案:D

101.DStream的輸出操作,不包括()。

A、foreachRDD(func)

B、print0

C\fIatMap(func)

D、saveAsTextFiIes(prefix)

答案:C

102.Flume的事件傳輸方式是什么?()

A、puII-based

B、push-based

C\stream-based

D、event-based

答案:B

103.下面那種情況不會(huì)觸發(fā)?ConsumerRebalance操作()。

A、某個(gè)消費(fèi)者崩潰

B、某個(gè)生產(chǎn)者崩潰

C、消費(fèi)者消費(fèi)的多個(gè)topic中某個(gè)topic被刪除

D、新增消費(fèi)者

答案:B

1O4.Flume的攔截器實(shí)現(xiàn)了哪個(gè)接口?()

A、ChannelInterceptor

B、EventInterceptor

C、SinkInterceptor

D、SourceInterceptor

答案:B

105.Kafka的核心是由哪個(gè)組件組成?()

A、Producer

B、Consumer

C、Broker

DvZooKeeper

答案:c

106.以下哪個(gè)選項(xiàng)不是Sqoop的導(dǎo)入模式?()

A、純文本導(dǎo)入

B、二進(jìn)制導(dǎo)入

GAvro導(dǎo)入

D、JS0N導(dǎo)入

答案:D

107.關(guān)于SecondaryNameNode哪項(xiàng)是正確的?()

A、它是NameNode的熱備

B、它的目的是幫助NameNode合并編輯日志,減少NameNode啟動(dòng)時(shí)間

C、它對(duì)內(nèi)存沒有要求

D、SecondaryNameNode應(yīng)與NameNode部署到一個(gè)節(jié)點(diǎn)

答案:B

108.以下哪種不是Hive支持的數(shù)據(jù)類型()o

A、Struct

B、Int

C、Map

DvLong

答案:D

109.獲取遠(yuǎn)程倉庫中Docker鏡像的操作命令是()。

A、dockerget

B、dockerpush

C、dockerpuII

D、ockerdownIoad

答案:c

110.Hive的默認(rèn)元數(shù)據(jù)存儲(chǔ)是什么()?

A、MySQL

B、PostgreSQL

C、Derby

D、OracIe

答案:c

111.Flink中的Watermark是用來(),幫助FIink正確地處理遲到的事件。

A、測(cè)量數(shù)據(jù)流的速度

B、表示數(shù)據(jù)流的起點(diǎn)

C、處理亂序事件

D、控制數(shù)據(jù)流的大小

答案:C

112.Kafka的消息保留策略可以根據(jù)什么進(jìn)行配置?()

A、時(shí)間

B、大小

C、主題

D、分區(qū)

答案:A

113.在Kafka中,O是ISR隊(duì)列中最小的LEO。

A、LEO

B、ISR

C、HW

D、AR

答案:C

114.DockerfiIe中指定環(huán)境變量的指令是()。

A、WORKDIR

B、SHELL

C、ENV

D、ENTRYPOINT

答案:C

115.下列()不可以作為SparkStreaming的輸入數(shù)據(jù)流。

A、Kafka

B、Twitter

c、TCP套接字

D、Openstack

答案:D

116.Hive是為了解決哪類問題()?

A、海量結(jié)構(gòu)化日志的數(shù)據(jù)統(tǒng)計(jì)

B、分布式組件調(diào)度

答案:A

117.Sqoop是Hadoop和關(guān)系數(shù)據(jù)庫服務(wù)器之間傳送數(shù)據(jù)的工具,下列哪種數(shù)據(jù)

庫是不支持使用Sqoop直接進(jìn)行數(shù)據(jù)傳送()。

A、Postgres

B、OracIe

GMySQL

D、Redis

答案:D

118.Hive默認(rèn)的元存儲(chǔ)是保存在內(nèi)嵌的()數(shù)據(jù)庫中。

A、MySQL

B、Derby

C、OracIe

D、SqIServer

答案:B

119.在ZooKeeper中,Watcher是一次性的嗎?()

A、是,一旦觸發(fā)就無法再次使用

B、否,可以反復(fù)使用

G取決于Watcher的類型

D、取決于節(jié)點(diǎn)的類型

答案:C

120.關(guān)于Hive存儲(chǔ)的文件格式描述錯(cuò)誤的是()。

A、ORC格式是Hive一直支持的

B、TEXTFILE是Hive的默認(rèn)存儲(chǔ)格式

C、SequenceFiIe是一種二進(jìn)制存儲(chǔ)

D、RC是ORC的前身

答案:A

121.以下關(guān)于Hive操作描述不正確的是()。

AxHive是一個(gè)建立在hadoop文件系統(tǒng)上的數(shù)據(jù)倉庫架構(gòu),可以用其對(duì)HDFS上

B\Hive依賴于MapReduce處理數(shù)據(jù)

C、Hive的加載數(shù)據(jù)時(shí)候,可以用local進(jìn)行修飾,表示從某個(gè)本地目錄下加載

數(shù)據(jù)

D、Hive一般可以用于實(shí)時(shí)的查詢分析

答案:D

122.Hadoop組件在企業(yè)應(yīng)用中,能用于大數(shù)據(jù)集實(shí)時(shí)查詢的產(chǎn)品有()。

A、Hive

B、Pig

C、Mahout

D、Hbase

答案:D

123.ZooKeeper中的節(jié)點(diǎn)可以設(shè)置()類型的觸發(fā)器。

A、數(shù)據(jù)變更觸發(fā)器

B、子節(jié)點(diǎn)變更觸發(fā)器

C、連接狀態(tài)觸發(fā)器

D、所有類型的觸發(fā)器

答案:D

124.下面哪個(gè)命令是創(chuàng)建hive表()□

A、import-aII-tabIes

B、Iist-databases

C、Iist-tabIes

D、create-hive-tabIe

答案:D

125.將一個(gè)已經(jīng)創(chuàng)建的容器導(dǎo)出到一個(gè)文件使用的操作命令是()。

A、dockerimport

B、dockerIoad

C、dockeroutput

D、ockerexport

答案:D

126.關(guān)于Hive的SequenceFiIe格式描述正確的是()。

A、SequenceFiIe是二進(jìn)制文件格式,以Iist的形式序列化到文件中

B\SequenceFiIe存儲(chǔ)方式:列存儲(chǔ)

C、SequenceFiIe不可分割、壓縮

D、SequenceFiIe優(yōu)勢(shì)是文件和Hadoopapi中的MapFiIe是相互兼容的

答案:D

127.Hive中的哪個(gè)配置參數(shù)用于指定Hive表的默認(rèn)分隔符()?

A、hive,default,delimiter

B\hive,default,separator

C\hive.defau11.fieId.deIim

答案:C

128.Docker內(nèi)置網(wǎng)絡(luò)模式不包括()。

A、host模式

B\mynet模式

C、none模式

D\bridge模式

答案:B

129.Docker配置文件的語法格式中,代表單個(gè)字符的符號(hào)是()。

A、*

B、?

C、!

D「

答案:B

130.新構(gòu)建一個(gè)名為mydocker的鏡像的操作命令是()。

A、dockernewmydocker

BvdockerbuiIdmydocker

C、dockernew-tmydocker

D、ockerbuild-tmydocker

答案:D

131.在Hive中,哪個(gè)配置參數(shù)用于指定Hive的執(zhí)行模式,如本地模式或MapRe

duce模式()?

A、hive.execution.engine

B、hive.execution.mode

Cvhive.mapred.mode

Dvhive.exec,mode

答案:B

132.下面哪個(gè)命令行參數(shù)可以用來刪除Kafka中的Topic?()

A、Iist

B、create

CvdeIete

Dvescribe

答案:c

133.下列選項(xiàng)中,()不屬于轉(zhuǎn)換算子操作。

A、fiIter(func)

B、map(func)

C\reduce(func)

D、reduceByKey(func)

答案:C

134.關(guān)于Hive描述正確的是()。

A、count函數(shù)必須開窗口才能使用

B\max函數(shù)是窗口函數(shù)

C、lead函數(shù)是聚合函數(shù),不是窗口函數(shù)

D、min函數(shù)是聚合函數(shù),不是窗口函數(shù)

答案:B

135.Dockerfile中聲明鏡像內(nèi)服務(wù)監(jiān)聽的端口的指令是()。

A、LISTEN

B、EXPOSE

C、ARG

D、MONITOR

答案:B

136.Flink的作業(yè)提交通常需要()來管理作業(yè)的執(zhí)行。

A、JobManager

B、TaskManager

C、ResourceManager

D、NameNode

答案:A

137.在Centos中啟動(dòng)Docker服務(wù)的命令是()。

A、systemstartdocker

B、systemenabIedocker

CvsystemctIstartdocker

DvsystemctIrundocker

答案:c

138.DataFrame和RDD最大的區(qū)別是()。

A、科學(xué)統(tǒng)計(jì)支持

B、多schema

C、存儲(chǔ)方式不一樣

D、外部數(shù)據(jù)源支持

答案:B

139.ZooKeeper使用的是()文件系統(tǒng)。

A、HadoopDistributedFiIeSystem(HDFS)

B、NetworkFiIeSystem(NFS)

C\ZooKeeperFiIeSystem(ZFS)

D、ExtensibIeStorageEngine(ESE)

答案:C

140.允許開發(fā)人員為容器分配MAC地址的是()。

A、網(wǎng)橋網(wǎng)絡(luò)

B、覆蓋網(wǎng)絡(luò)

C、驅(qū)動(dòng)網(wǎng)絡(luò)

D、主機(jī)網(wǎng)絡(luò)

答案:C

141.Spark默認(rèn)的存儲(chǔ)級(jí)別是()。

A、MEM0RY_0NLY

B、MEM0RY_0NLY_SER

C、MEMORY_AND_DISK

D、MEMORY_AND_DISK_SER

答案:A

142.HBase依賴()技術(shù)框架提供消息通信機(jī)制。

A、Zookeeper

B、Chubby

C、RPC

D\Socket

答案:A

143.與傳統(tǒng)消息系統(tǒng)相比,Kafka的突出特點(diǎn)不包括()。

A、能夠持久化日志

B、容錯(cuò)能力強(qiáng),是一個(gè)分布式系統(tǒng)

C、支持實(shí)時(shí)的流式處理

D、提供在線消息同步和離線消息緩存的能力

答案:D

144.下面()端口不是Spark自帶服務(wù)的端口。

A、8080.0

B、4040.0

C、8090.0

D、18080.0

答案:C

145.在Hive中,以下哪個(gè)配置參數(shù)用于指定HiveCLI的歷史命令記錄文件名()?

A、hive.history,file,name

B、hive.cIi.history.file

Cvhive.command.Iog.fiIename

Dvhive.query.Iog.file

答案:B

146.在HDFS分布式文件系統(tǒng)中,一般采用冗余存儲(chǔ),冗余因子通常設(shè)置為()o

A、1.0

B、2.0

C、3.0

D、4.0

答案:c

147.Flink的Web界面通常用于()。

A、編寫Flink作業(yè)

B、監(jiān)控Flink集群

G運(yùn)行Flink作業(yè)

D、調(diào)試Flink作業(yè)

答案:B

148.關(guān)于DStream窗口操作函數(shù),以下說法錯(cuò)誤的是()。

A、window()返回基于源DStream的窗口進(jìn)行批計(jì)算后的一個(gè)新的Dstream

B\countByWindow。返回基于滑動(dòng)窗口的DStream中的元素?cái)?shù)

C\reduceByWindow()做聚合操作并返回—新的Dstream

D、以上說法都不對(duì)

答案:D

149.Docker是基于。實(shí)現(xiàn)的開源容器項(xiàng)目。

A、C語后

B、Java]吾己

C、Go語三

D、Python語言

答案:C

150.在Sqoop中,使用哪個(gè)命令可以列出可用的數(shù)據(jù)庫連接?()

A、sqoopIist-databases

B、sqoopheIp

C、sqoopconnections

D、sqoopserver

答案:A

151.Kafka的消息消費(fèi)可以使用哪種模式?()

A、單播

B、組播

C、廣播

D、串播

答案:A

152.下面()操作是寬依賴。

A、map公

B\fIatMap

C、groupByKey

D、union

答案:c

153.當(dāng)之前下線的分區(qū)重新上線時(shí),要執(zhí)行Leader選舉,選舉策略為()。

A、OffIinePartitionLeader選舉

B、ReassignPartitionLeader選舉

CvPreferredRepIicaPartitionLeader選舉

DvControIIedShutdownPartitionLeader選舉

答案:A

154.Hadoop安裝在一臺(tái)計(jì)算機(jī)上,需修改相應(yīng)的配置文件,用一臺(tái)計(jì)算機(jī)模擬

多臺(tái)主機(jī)的集群是()模式。

A、全分布模式

B、偽分布模式

C、單機(jī)模式

D、全分布HA模式

答案:B

155.FIink支持的數(shù)據(jù)處理方式為()。

A、批處理

B、流處理

C、以上都是

D、無法確定

答案:C

156.()參數(shù)不影響kafka重平衡?

A、session.timeout.ms

B、heartbeat,intervaI.ms

C、message,max.bytes

D、max.poll,intervaI.ms

答案:c

157.在ZooKeeper中,()角色負(fù)責(zé)協(xié)調(diào)其他節(jié)點(diǎn)的工作。

A、領(lǐng)導(dǎo)者(Leader)

B、跟隨者(Follower)

C\觀察者(Observer)

D、所有角色均可

答案:A

158.當(dāng)使用sqoop將數(shù)據(jù)從MySQL導(dǎo)入到HDFS時(shí),以下哪個(gè)參數(shù)用于指定使用

多個(gè)mapper?()

A、-m

B、-f

C、-t

D、-c

答案:A

159.SparkSQL可以處理的數(shù)據(jù)源包括O。

A、Hive表

B、Hive表、數(shù)據(jù)文件

C、Hive表、數(shù)據(jù)文件、RDD

D、Hive表、數(shù)據(jù)文件、RDD、外部數(shù)據(jù)庫

答案:D

160.SparkStreaming中對(duì)DStream的轉(zhuǎn)換操作會(huì)轉(zhuǎn)變成對(duì)()的操作。

A、sqI

B、dataset

C、rdd

D、ataframe

答案:c

161.關(guān)于DataFrame與RDD在結(jié)構(gòu)上的區(qū)別,以下描述錯(cuò)誤的是()。

A、DataFrame可以看作是分布式的Row對(duì)象的集合,在二維表數(shù)據(jù)集的每一列

都帶有名稱和類型

B、RDD是分布式的Java對(duì)象的集合

C、RDD在轉(zhuǎn)換數(shù)據(jù)形式時(shí)效率相對(duì)較高

D\ataFrame提供了比RDD更豐富的算子

答案:C

162.配置Hadoop文件參數(shù)時(shí),配置項(xiàng)“dfs.repIication"應(yīng)該配置在哪個(gè)文件?

。

A、core-site,xml

B、hdfs-site.xml

C、mapred-site.xml

D、yarn-site,xml

答案:B

163.停止一個(gè)容器的操作命令是()。

Avdockerstop

B、dockershutdown

C、dockershift

Dvockerpause

答案:A

164.下列不是Spark的部署模式的是()。

A、單機(jī)式

B、單機(jī)偽分布式

C、列分布式

D、完全分布式

答案:C

165.下列哪個(gè)數(shù)據(jù)類型不是hadoop的數(shù)據(jù)類型()。

A、Text

B、String

GIntWritabIe

D、NulIWritable

答案:B

166.Flume的事件可以包含哪些屬性?()

AvTimest,Type,Body,Headers,Count

B、Timest,Type,Body,Headers,ID

C、Timest,Type,Body,Headers,SequenceID

DvTimest,Type,Body,Headers,Number

答案:c

167.在ZooKeeper中,ZAB協(xié)議是()。

A、用于節(jié)點(diǎn)間的數(shù)據(jù)同步和一致性保證的協(xié)議

B、用于節(jié)點(diǎn)間的消息傳遞和通信的協(xié)議

C、用于節(jié)點(diǎn)間的負(fù)載均衡和路由選擇的協(xié)議

D、用于節(jié)點(diǎn)間的權(quán)限控制和訪問管理的協(xié)議

答案:A

168.Flink的狀態(tài)管理用于(),以支持容錯(cuò)性和狀態(tài)化的計(jì)算。

A、存儲(chǔ)和檢索中間結(jié)果

B、控制數(shù)據(jù)流速度

C、定時(shí)觸發(fā)窗口操作

D、執(zhí)行數(shù)據(jù)清洗

答案:A

169.下列關(guān)于topic和partition的描述,錯(cuò)誤的是()。

A、Kafka中消息是以partition進(jìn)行分類的

B\與partition不同,topic是邏輯上的概念而非物理上的概念

C、每個(gè)partition對(duì)應(yīng)于—log文件

D\—partition分為多個(gè)segment

答案:A

170.在Flink中,()通常用于指定Flink作業(yè)的任務(wù)流圖(JobGraph)o

AxfIink.xml

B\job.conf

C、flperties

D、fIink-config.yamI

答案:D

171.Flume的哪個(gè)組件可以保證數(shù)據(jù)不會(huì)丟失?()

A、通道

B、接收器

C、攔截器

D、源

答案:B

172.當(dāng)在Sqoop中使用一append參數(shù)時(shí),它會(huì)將數(shù)據(jù)添加到目標(biāo)表的哪個(gè)位置?

()

A、文件的開頭

B、文件的末尾

C、新文件中

D、隨機(jī)位置

答案:B

173.以下關(guān)于RDD的寬依賴和窄依賴的說法錯(cuò)誤的是()。

A、窄依賴表現(xiàn)為子RDD的一個(gè)分區(qū)只依賴于某個(gè)(些)父RDD的一個(gè)分區(qū)

B、寬依賴則表現(xiàn)為子RDD的一個(gè)分區(qū)依賴于同一個(gè)父RDD的多個(gè)分區(qū)

C、寬依賴的RDD之間無ShuffIe操作

D、窄依賴的RDD之間無ShuffIe操作

答案:C

174.Docker的三大核心不包括()。

A、容器

B、算法

C\鏡像

D、倉庫

答案:B

175.下列()不是Docker項(xiàng)目中用于文件存儲(chǔ)的數(shù)據(jù)庫。

A、MYSQL

B、MongoDB

GRedis

D\Kafka

答案:D

176.Kafka服務(wù)器默認(rèn)能接收的最大消息是多大?()$

A、1M

B、10M

C、100M

D、沒有大小限制,因?yàn)橹С执髷?shù)據(jù)

答案:A

177.Spark采用RDD以后能夠?qū)崿F(xiàn)高效計(jì)算不是因?yàn)椋ǎ?/p>

A、高效的容錯(cuò)性,通過血緣關(guān)系重新計(jì)算丟失分區(qū)

B、中間結(jié)果持久化到內(nèi)存,數(shù)據(jù)在內(nèi)存中的多個(gè)RDD操作之間進(jìn)行傳遞,避免

了不必要的讀寫磁盤開銷

C、存放的數(shù)據(jù)可以是Java對(duì)象,避免了不必要的對(duì)象序列化和反序列化

D、RDD采用了高效的“轉(zhuǎn)換”和“動(dòng)作”算子

答案:D

178.FIink支持處理各種類型的數(shù)據(jù),包括()數(shù)據(jù)。

A、結(jié)構(gòu)化

B、半結(jié)構(gòu)化

C、無結(jié)構(gòu)化

D、以上都是

答案:D

179.Hive是以()技術(shù)為基礎(chǔ)的數(shù)據(jù)倉庫。

A、HDFS

B、MAPREDUCE

C、HADOOP

D、HBASE

答案:C

180.Flink的作業(yè)調(diào)度(JobScheduIing)通常由()負(fù)責(zé)。

A、ResourceManager

B\TaskManager

C、JobManager

D\ZooKeeper

答案:C

181.Flume的哪個(gè)組件用于將事件數(shù)據(jù)寫入目標(biāo)存儲(chǔ)?()

A、ChanneI

B、Sink

C、Source和ChanneI

D\Source和Sink

答案:B

182.關(guān)于HiveSQL編譯描述正確的是()。

A、HiveSQL的Parser層是為了將SQL轉(zhuǎn)化為執(zhí)行計(jì)劃的

B、邏輯層優(yōu)化器會(huì)進(jìn)行算子轉(zhuǎn)換,優(yōu)化合并不必要的算子操作

C\MapReduce任務(wù)是需要遍歷QueryBlock后生成的

D、編譯器遍歷ASTTree,抽象出查詢的基本組成單元OperatorTree

答案:B

183.Docker的()命令只支持將本地文件復(fù)制到容器中。

A、DD

B、COPY

C、SCP

D、PUT

答案:B

184.在HDFS文件操作中,上傳文件的命令是()o

Avput

B、input

C、get

Dvup

答案:A

185.制作鏡像時(shí),復(fù)制文件到鏡像中使用的命令是()。

A、DD

B、COPY

C、RUN

D、CMD

答案:B

186.以下關(guān)于Spark與Hadoop對(duì)比,說法錯(cuò)誤的是()。

A、Spark的計(jì)算模式也屬于MapReduce,但不局限于Map和Reduce操作,還提

供了多種數(shù)據(jù)集操作類型,編程模型比HadoopMapReduce更靈活

B、Spark提供了內(nèi)存計(jì)算,可將中間結(jié)果放到內(nèi)存中,對(duì)于迭代運(yùn)算效率更高

C、Spark磁盤I0開銷較大,任務(wù)之間的銜接涉及I0開銷

D、Spark基于DAG的任務(wù)調(diào)度執(zhí)行機(jī)制,要優(yōu)于HadoopMapReduce的迭代執(zhí)行

機(jī)制

答案:C

187.Hive適合()環(huán)境。

A、Hive適合用于聯(lián)機(jī)(onIine)事務(wù)處理

B、提供實(shí)時(shí)查詢功能

C、適合應(yīng)用在大量不可變數(shù)據(jù)的批處理作業(yè)

D、Hive適合關(guān)系型數(shù)據(jù)環(huán)境

答案:C

188.強(qiáng)制刪除容器tmp01的操作命令是()。

A、dockerrm-ftmp01

B\dockerrm-vtmp01

C\dockerrm-1tmp01

D、ockerrm-ltmpOl

答案:A

189.在Sqoop中,哪個(gè)參數(shù)用于指定要導(dǎo)入的目標(biāo)表?()

A、-tabIe

B、-target-dir

Cv-outdir

Dv-where

答案:A

190.以下()文件中主要用來配置ResourceManager,NodeManager的通信端口,

web監(jiān)控端口等。

Avcore-site,xml

B、mapred-site.xml

C、hdfs-site.xmI

Dvyarn-site,xml

答案:D

191.Docker運(yùn)行的核心模塊是()。

A、DockerServer

BvDockerEngine

C、DockerCIient

答案:B

192.關(guān)于SparkSQL,以下說法正確的是()。

A、HiveContext繼承了SqIContext

B、DataFrame其實(shí)就是RDD

C、HiveContext只支持SQL語法解析器

D、SparkSQL的前身是Hive

答案:A

193.若要在Hive中啟用壓縮數(shù)據(jù)存儲(chǔ),應(yīng)該設(shè)置哪個(gè)配置參數(shù)()?

A、hive.compress,enabIed

B、hive.compression.enabIed

C、hive.storage,compression.enabIed

答案:B

194.Kafka的消息以什么形式進(jìn)行存儲(chǔ)?()

A、表格

B、集合

C、文檔

D、日志

答案:D

195.關(guān)于MapReduce的說法正確的是()。

A、MapReducel.0用YARN框架來進(jìn)行資源調(diào)度的

BvMapReduce是基于內(nèi)存計(jì)算的框架

C\MapReduce是分布式文件存儲(chǔ)系統(tǒng)

D、MapReducel.0既是一個(gè)計(jì)算框架又是一個(gè)資源調(diào)度框架

答案:D

196.dockerfiIe文件的作用是()。

A、普通文件

B、用于自定義鏡像

C、用于保存容器配置

D\用于存放docker配置

答案:B

197.Flume的默認(rèn)通道類型是什么?()

A、MemoryChanneI

B、FiIeChanneI

GKafkaChanneI

D、JdbcChanneI

答案:A

198.Kafka的消費(fèi)者在處理消息時(shí)可以選擇的模式是()。

A、單線程模式

B、多線程模式

C、分布式模式

D、并行模式

答案:B

199.關(guān)于Hive各個(gè)格式使用場(chǎng)景描述錯(cuò)誤的是()。

A、Parquet對(duì)于大型查詢的類型是高效的,對(duì)于掃描特定表格中的特定列的查

詢,Parquet特別有用

B\目前Parquet默認(rèn)使用gzip壓縮格式

C、0RC可以支持復(fù)雜的數(shù)據(jù)結(jié)構(gòu)(比如Map等)

D、RCFiIe是一種行列存儲(chǔ)相結(jié)合的存儲(chǔ)方式

答案:B

200.Kafka的消息傳遞語義是O。

A、最終一致性

B、強(qiáng)一致性

C、弱一致性

D、無一致性

答案:C

201.在Docker數(shù)據(jù)管理中,數(shù)據(jù)卷可以提供的特性不包括()。

A、數(shù)據(jù)卷可以在容器之間共享和重用

B、對(duì)數(shù)據(jù)卷內(nèi)數(shù)據(jù)的修改立馬生效

C、對(duì)數(shù)據(jù)卷的更新不影響鏡像

D、掛載數(shù)據(jù)卷時(shí)要手工創(chuàng)建掛載目錄

答案:D

202.ZooKeeper中的數(shù)據(jù)模型是基于()。

A、關(guān)系模型

B、鍵值對(duì)模型

C、圖模型

D、文檔模型

答案:B

203.關(guān)于Hive內(nèi)外表描述正確的是()。

A、內(nèi)部表數(shù)據(jù)由HDFS自身管理,外部表數(shù)據(jù)由Hive管理;

B、內(nèi)部表數(shù)據(jù)存儲(chǔ)的位置是hive.metastore,warehouse,dir設(shè)置配置(默認(rèn):

/user/hive/warehouse)

C\外表存儲(chǔ)必須指定LOCATION

D、內(nèi)外表刪除時(shí),都會(huì)刪除元數(shù)據(jù)和存儲(chǔ)

答案:B

204.Flume的事件是什么?()

A、數(shù)據(jù)項(xiàng),記錄,和文件

B、數(shù)據(jù)流,記錄,和事件

G數(shù)據(jù)項(xiàng),記錄,和消息

D、數(shù)據(jù)流,記錄,和消息

答案:D

205.使用Dockerrun命令運(yùn)行一個(gè)容器時(shí),通過參數(shù)()可啟動(dòng)一個(gè)bash允許

用戶進(jìn)行交互。

A、it

B、ia

C\nt

D\na

答案:A

206.Flink的集群部署通常需要()作為資源管理器。

A、YARN

B\ApacheZooKeeper

C、ApacheKafka

D、HadoopHDFS

答案:A

207.以下哪個(gè)文件是能夠修改HDFS的副本保存數(shù)量參數(shù)()。

A、修改mapred-site.xml配置文件

B、修改core-site,xml配置文件

G修改yarn-site.xml配置文件

D、修改hdfs-site.xml配置文件

答案:D

208.使用create命令新建容器時(shí),指定容器在網(wǎng)絡(luò)中的別名的命令選項(xiàng)是()。

Avnet-name

B、net-aIias

C、network

Dvalias

答案:B

209.下列哪種情況不會(huì)觸發(fā)到消費(fèi)者分區(qū)的重新分配?

A、當(dāng)有新的消費(fèi)者加入消費(fèi)者組

B、已有的消費(fèi)者推出消費(fèi)者組

C、處于消費(fèi)者所在分區(qū)最近提交的。開set位置

D、消費(fèi)者所訂閱的主題的分區(qū)發(fā)生變化

答案:C

210.Flink的TabieAPI和SQL用于()。

A、數(shù)據(jù)可視化

B、執(zhí)行SQL查詢

C、數(shù)據(jù)流分析

D、數(shù)據(jù)清洗

答案:B

211.Flume的Kafka源類型是什么?()

AvKafkaSource

B、KafkaSpout

C、KafkaAvroSource

DvKafkaEventSource

答案:C

212.Hive中以下操作不正確的是()。

A、IoaddatainpathintotabIename

BvinsertintotabIename

C、insertoverwritetabIename

D、upddatetabIename

答案:D

213.Linux下啟動(dòng)HDFS的命令是()。

A、Hdfs

B、startdfs

C、start-dfs.sh

Dvstart-dfs.cmd

答案:c

214.下列說法錯(cuò)誤的是()o

A、生產(chǎn)者和消費(fèi)者面向的都是一個(gè)topic

B、生產(chǎn)者發(fā)送數(shù)據(jù)的對(duì)象是leader

C、當(dāng)集群中的某個(gè)節(jié)點(diǎn)發(fā)生故障時(shí),Replica上的partition數(shù)據(jù)不會(huì)丟失

D、partition是一個(gè)沒有順序的隊(duì)列

答案:D

215.以下哪個(gè)是正確的sqoop導(dǎo)入數(shù)據(jù)的完整命令?()

A、sqoopimport-connectjdbc:mysqI://locaIhost:3306/userdb-usernamero

ot-deIete-target-dir-target-dir/MysqIToHDFSI-tabIestudent

B、sqoopimportdata-connectjdbc:mysqI://1ocaIhost:3306/userdb-userna

meroot-deIete-target-dir-target-dir/MysqIToHDFSI-tabIestudent

C、bin/sqoopimport-connectjdbc:mysqI://1ocaIhost:3306/userdb-userna

meroot-deIete-target-dir-target-dir/MysqIToHDFSI-tabIestudent

D、bin/sqoopimportdata-connectjdbc:mysqI://1ocaIhost:3306/userdb-us

ernameroot-deIete-target-dir-target-dir/MysqIToHDFSI-tabIestudent

答案:c

216.Flink中的Checkpoints(檢查點(diǎn))主要用于()。

A、實(shí)現(xiàn)ExactIy-once語義

B、控制并行度

C、執(zhí)行作業(yè)

D、壓縮數(shù)據(jù)

答案:A

217.在ZooKeeper中,在配置文件zoo.cfg中,請(qǐng)問initLimit表示的含義是()。

A、Leader-FoIIower初始通信時(shí)限

B\Leader-Follower同步通信時(shí)限

C、Iient-Server通信心跳時(shí)間

D、Client-Server初始通信時(shí)限

答案:A

218.Sqoop的作用是()o

A、用于傳統(tǒng)關(guān)系數(shù)據(jù)庫和Hadoop之間傳輸數(shù)據(jù)

B、提供對(duì)日志數(shù)據(jù)進(jìn)行簡(jiǎn)單處理的能力

C、是Hadoop體系中數(shù)據(jù)存儲(chǔ)管理的基礎(chǔ)

D、是一個(gè)建立在HDFS之上,面向列的針對(duì)結(jié)構(gòu)化和半結(jié)構(gòu)化數(shù)據(jù)和動(dòng)態(tài)數(shù)據(jù)庫

答案:A

219.Flink的主要特點(diǎn)是()o

A、高吞吐量

B、低延遲

C、ExactIy-once處理語義

D、以上都是

答案:D

220.Task運(yùn)行在下面()選項(xiàng)中Executor上的工作單元。

A、Driverprogram

B\sparkmaster

C、workernode

D\CIustermanager

答案:C

221.Flink的日志管理通常包括()這幾個(gè)方面。

A、日志存儲(chǔ)和檢索

B、日志清理和壓縮

C、日志分析和報(bào)警

D、以上都是

答案:D

多選題

1■關(guān)于ZooKeeper順序節(jié)點(diǎn)的說法不正確的是O。

A、創(chuàng)建順序節(jié)點(diǎn)的命令為:create/testvaIue1

B、創(chuàng)建順序節(jié)點(diǎn)時(shí)不能連續(xù)執(zhí)行創(chuàng)建命令,否者報(bào)錯(cuò)節(jié)點(diǎn)已存在

C、通過順序節(jié)點(diǎn),可以創(chuàng)建分布式系統(tǒng)唯一ID

D、順序節(jié)點(diǎn)的序號(hào)能無限增加

答案:ABD

2.Flume的可靠性機(jī)制包括哪些內(nèi)容?()

A、數(shù)據(jù)備份存儲(chǔ)

B、數(shù)據(jù)重復(fù)傳輸

C、數(shù)據(jù)校驗(yàn)和

D、數(shù)據(jù)順序保證

答案:ABCD

3.查看Docker容器的子命令有()。

A、display

B\stats

C、inspect

D、Iist

答案:BC

4Flink的緩存機(jī)制包含以下哪些內(nèi)容()o

A、可以使用戶在并行函數(shù)中很方便的讀取本地文件

B、通過ExecutionEnvironment注冊(cè)緩存文件并為其起名

C\當(dāng)程序執(zhí)行時(shí),F(xiàn)link自動(dòng)將文件或目錄復(fù)制到所有TaskManager節(jié)點(diǎn)的本

地文件系統(tǒng)

D、用戶可以從TaskManager節(jié)點(diǎn)的本地文件系統(tǒng)訪問它

答案:ABCD

5.Flink核心組成部分提供了面向()的接口。

A、批處理

B、流處理

C、表

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論