版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
2024年世界職業(yè)院校技能大賽中職組“大數(shù)據(jù)應(yīng)用與服務(wù)組”
賽項(xiàng)考試題庫(含答案)
一、單選題
1.ZooKeeper的特點(diǎn)不包括()。
A、順序一致性
B、原子性
C、可靠性
D、復(fù)合系統(tǒng)映像
答案:D
2.在hadoop配置中core-site,xml的配置是()參數(shù)。
A、集群全局參數(shù)
B、HDFS參數(shù)
C、Mapreduce參數(shù)
D、集群資源管理系統(tǒng)參數(shù)
答案:A
3.當(dāng)Kafka中日志片段大小達(dá)到()時(shí),當(dāng)前日志片段會(huì)被關(guān)閉。
A、1M
B、100M
C、1GB
D、10GB
答案:C
4Hive中的哪個(gè)配置參數(shù)用于指定Hive的臨時(shí)文件目錄()?
A、hive.tmp.dir
Bvhive.temp.directory
C、hive.temp.dir
D、hive.tmp.directory
答案:A
5.Flume的哪個(gè)版本加入了Kafka作為源和匯點(diǎn)?()
A、1.X版本
B、2.X版本
C、3.X版本
D、4.X版本
答案:B
6.Kafka的消息是如何進(jìn)行順序?qū)懭氲模?)
A、順序?qū)懭氲酱疟P
B、順序?qū)懭氲絻?nèi)存
C、順序?qū)懭氲骄彺?/p>
D、順序?qū)懭氲剿饕募?/p>
答案:A
7.Stage的Task的數(shù)量由()決定。
A、Partition
B、Job
C、Stage
D、TaskScheduIer
答案:A
8.sqoop的組件功能是()o
A、sqoop只能實(shí)現(xiàn)關(guān)系型數(shù)據(jù)庫向非關(guān)系型數(shù)據(jù)傳輸數(shù)據(jù)
B\sqoop是關(guān)系型數(shù)據(jù)庫
C、sqoop實(shí)現(xiàn)在關(guān)系型數(shù)據(jù)庫和非關(guān)系型數(shù)據(jù)庫之間時(shí)行數(shù)據(jù)傳輸
D、sqoop是非關(guān)系型數(shù)據(jù)庫
答案:C
9.ZooKeeper中的一次寫操作是原子的嗎?()
A、是,寫操作是原子的
B、否,寫操作可能不是原子的
C、取決于寫操作的類型
D、取決于節(jié)點(diǎn)的類型
答案:A
10.FIink的高可用性(HighAvailabiIity)設(shè)置通常需要配置的組件是()。
A、JobManager和TaskManager
B\ResourceManager和NodeManager
GNameNode和DataNode
D、ZooKeeper集群
答案:D
11.在Flink中,水位線是()生成的。
A、基于系統(tǒng)時(shí)間的周期性
B、基于事件時(shí)間的周期性
C、由用戶手動(dòng)指定
D、實(shí)時(shí)
答案:A
12.典型的麗$01.數(shù)據(jù)庫是()。
A、Hive
B、MySQL
C、Hbase
D\OracIe
答案:C
13.Flink的窗口操作通常在()執(zhí)行,以對(duì)數(shù)據(jù)進(jìn)行分組、聚合和統(tǒng)計(jì)。
A、數(shù)據(jù)產(chǎn)生時(shí)
B、數(shù)據(jù)進(jìn)入Flink時(shí)
C、數(shù)據(jù)在窗口中間時(shí)
D、數(shù)據(jù)離開Flink時(shí)
答案:C
14.要在Hive中啟用Kerberos認(rèn)證,應(yīng)該設(shè)置哪個(gè)配置參數(shù)()?
A、hive.security.authentication
B\hive.kerberos.enabIed
C、hive.auth.kerberos
D\hive.authentication.method
答案:A
15.Hive中的自動(dòng)分區(qū)是通過哪個(gè)配置參數(shù)啟用的()?
A、hive.auto,partition
Bvhive.partition.auto
C、hive.exec,dynamic,partition
D、hive.partitioning.auto
答案:c
16.以下選項(xiàng)哪個(gè)是MapReduce正確的運(yùn)行模型()。
A、Reduce-Map-ShuffIe
B、ShuffIe-Map-Reduce
C、Map-ShuffIe-Reduce
D、Map-Reduce-ShuffIe
答案:c
17.將一個(gè)RDD轉(zhuǎn)換為DataFrame的方法是()。
A、dataFrame()
B\toDataFrame0
C、DF0
D、toDF0
答案:D
18.Hadoop集群中存在的主要性能瓶頸是()。
A、CPU
B、網(wǎng)絡(luò)
C\磁盤10
D、內(nèi)存
答案:C
19.以下選項(xiàng)中說法正確的是()。
A、DAG是彈性分布式數(shù)據(jù)集的簡(jiǎn)稱,是分布式內(nèi)存的一個(gè)抽象概念,提供了一
種高度受限的共享內(nèi)存模型
B、Application是運(yùn)行在工作節(jié)點(diǎn)的一個(gè)進(jìn)程,負(fù)責(zé)運(yùn)行Task
C\Job是運(yùn)行在Executor上的工作單元
D、Stage是Job的基本調(diào)度單位,一/Job會(huì)分為多組Task,每組Task被稱為
Stage
答案:D
20.Dataset最終在()版本中被定義成Spark新特性。
A、Sparkl.6
B、Sparkl.8
C、Spark2.0
D\Spark2.2
答案:c
21.在Hive中,哪個(gè)配置參數(shù)用于指定HiveCLI的歷史命令記錄目錄()?
A、hive.history,fiIe.directory
Bvhive.query.Iog.dir
C、hive.cIi.history,directory
D、hive.command.Iog.dir
答案:c
22.Docker中的每一個(gè)工作都可以抽象為一個(gè)()。
A、實(shí)例
B、進(jìn)程
C、Job
D、請(qǐng)求
答案:C
23.關(guān)于Hivemetastore的三種模式的描述錯(cuò)誤的是()。
A、Derby方式是內(nèi)嵌的方式,也是默認(rèn)的啟動(dòng)方式,一般用于單元測(cè)試
B、local模式中,使用MySQL本地部署實(shí)現(xiàn)metastore
C、remote模式為遠(yuǎn)程MySQL
D、erby方式在同一時(shí)間只能有多個(gè)進(jìn)程連接使用數(shù)據(jù)庫
答案:D
24.Kafka是一種()。
A、數(shù)據(jù)庫系統(tǒng)
B、分布式消息隊(duì)列系統(tǒng)
C、緩存系統(tǒng)
D、文件系統(tǒng)
答案:B
25.在Hive中,以下哪個(gè)配置參數(shù)用于指定Hive的執(zhí)行引擎為Spark()?
A、hive.execution.engine=spark
B\hive.spark,execution.engine=true
C、hive.spark,engine.enabIed=true
D、hive.query,engine=spark
答案:A
26.Hive中的哪個(gè)配置參數(shù)用于指定Hive元數(shù)據(jù)存儲(chǔ)的連接URL()?
Avhive.metastore,db.urI
B、hive.metastore.uri
C、hive.metastore,connection.urI
Dvhive.metastore,db.connection
答案:A
27.將大數(shù)據(jù)平臺(tái)數(shù)據(jù)導(dǎo)出到mysqI可以使用()工具。
A、Hadoop
B、Sqoop
C、Hive
D、XshelI
答案:B
28.在導(dǎo)入開始之前,Sqoop檢索出表中所有的列以及列的SQL數(shù)據(jù)類型,這些SQ
L類型被映射什么類型()。
A、C
B、C++
C、Java
D\Python
答案:c
29.Flink的CEP(CompIexEventProcessing)庫用于(),幫助檢測(cè)和處理特定
的事件模式。
A、執(zhí)行復(fù)雜數(shù)據(jù)處理操作
B、處理圖形數(shù)據(jù)
C、處理實(shí)時(shí)事件流
D、控制數(shù)據(jù)流速度
答案:C
30.關(guān)于DataFrame的優(yōu)勢(shì),以下描述錯(cuò)誤的是O。
A、DataFrame提升了Spark框架的執(zhí)行效率
B\DataFrame減少了數(shù)據(jù)讀取時(shí)間
C\DataFrame可以優(yōu)化執(zhí)行計(jì)劃
D\ataFrame可以完全替換RDD
答案:D
31.Kafka的高可用性是通過什么機(jī)制實(shí)現(xiàn)的?()
A、數(shù)據(jù)復(fù)制
B、數(shù)據(jù)壓縮
C、數(shù)據(jù)分片
D、數(shù)據(jù)緩存
答案:A
32.使用Dockerrm命令刪除容器時(shí)只刪除容器的鏈接,需要使用的命令選項(xiàng)是()。
A、f
B、I
C、v
D、i
答案:B
33.在hive中下列哪個(gè)命令不可以實(shí)現(xiàn)去重()。
A、distinet
B、groupby
Cvrow_number
Dvhaving
答案:D
34.關(guān)于SparkSQL,以下描述錯(cuò)誤的是()。
A、SparkSQL使用的數(shù)據(jù)抽象并非是DataFrame,而是RDD
B、在Spark的早期版本中,DataFrame被稱為SchemaRDD
C\DataFrame是一種以RDD為基礎(chǔ)的分布式數(shù)據(jù)集
D、ataFrame可以完成RDD的絕大多數(shù)功能
答案:A
35.Kafka的消息壓縮算法可以選擇的方式是()。
A、GZIP
B、Snappy
C、LZ4
D、所有以上
答案:D
36.FIink的廣播狀態(tài)(Broadcaststate)用于()。
A、在所有任務(wù)之間共享狀態(tài)
B、保持?jǐn)?shù)據(jù)流的連續(xù)性
C、加速數(shù)據(jù)處理
D、控制數(shù)據(jù)流速度
答案:A
37.Sqoop將導(dǎo)入或?qū)С雒罘g成什么程序來實(shí)現(xiàn)導(dǎo)入導(dǎo)出()o
A、Spark
B、Storm
C\MapReduce
D\Tez
答案:C
38.關(guān)于ZooKeeper說法錯(cuò)誤的是()。
A、ZooKeeper是一個(gè)高可用的分布式數(shù)據(jù)管理和協(xié)調(diào)框架
B、能夠很好的保證分布式環(huán)境中數(shù)據(jù)的一致性
C、越來越多的分布式系統(tǒng)(HadoopvHBase、Kafka)中使用ZooKeeper
D、Hadoop的高可用不需要用到ZooKeeper
答案:D
39.DockerfiIe配置文件使用()命令指定基礎(chǔ)鏡像。
A、IMPORT
B、GET
C、OPEN
D、FROM
答案:D
40.測(cè)試Sqoop是否能夠正常連接MySQL數(shù)據(jù)庫命令是()。
A、sqoopIist-database-connectjdbc:mysqI://127.0.0.1:3306/-usernamer
oot-P
B、sqoopIist-databases-connectionjdbc:mysqI://127.0.0.1:3306/-usern
ameroot-P
CvsqoopIist-databases-connectjdbc:mysqI://127.0.0.1:3306/-username
root-L
D、sqoopIist-databases-connectjdbc:mysqI://127.0.0.1:3306/-username
root-P
答案:D
41.hadoop2.0與hadoopl.0區(qū)別()。
A、增加MapReduce2
B、增加YARN
G增加HDFS2
D、增加容錯(cuò)機(jī)制
答案:B
42.Sqoop中哪個(gè)參數(shù)用于指定要使用的分隔符,以便在導(dǎo)入數(shù)據(jù)時(shí)正確處理字
段?()
A、-fieId-separator
B\-fs
C、-deIimiter
D、-spIit-by
答案:A
43.SparkSQL中,model函數(shù)可以接收的參數(shù)有哪些()。
AvOverride、Ignore
B、Override、Ignore、Append
C、Ignore、Append、ErrorIfExists
DvOverridexIgnore、AppendsErrorIfExists
答案:D
44.在ZooKeeper中,每個(gè)節(jié)點(diǎn)都有一個(gè)唯一的標(biāo)識(shí)符,這個(gè)標(biāo)識(shí)符是()。
A、ZNode
B、EphemeraINode
C、PersistentNode
D、ZooNode
答案:A
45.ZooKeeper中的一次讀操作是原子的嗎?()
A、是,讀操作是原子的
B、否,讀操作可能不是原子的
C、取決于讀操作的類型
D、取決于節(jié)點(diǎn)的類型
答案:A
46.FIink的時(shí)間語義(TimeSemantics)中的事件時(shí)間(EventTime)和處理時(shí)
間(ProcessingTime)的區(qū)別是()。
A、事件時(shí)間是事件發(fā)生的時(shí)間,處理時(shí)間是事件進(jìn)入Flink的時(shí)間
B、事件時(shí)間是事件進(jìn)入Flink的時(shí)間,處理時(shí)間是事件發(fā)生的時(shí)間
C、事件時(shí)間和處理時(shí)間是相同的
D、事件時(shí)間和處理時(shí)間沒有明確的定義
答案:A
47.在Hive中,以下哪個(gè)配置參數(shù)用于指定Hive執(zhí)行計(jì)劃的輸出目錄()?
A、hive.query,pIan.output,directory
B、hive.exec,pIan.output,directory
C、hive.pIan.output,directory
D、hive.query,execution.directory
答案:A
48.啟動(dòng)一個(gè)容器的操作命令是()。
A、dockerstart
B、dockeropen
Cvdockernew
Dvockergo
答案:A
49.Flink的本地模式(LocaIMode)和集群模式(CIusterMode)之間的主要區(qū)
別是()。
A、部署方式
B、編程語言
C、安全性設(shè)置
D、并行度設(shè)置
答案:A
50.消費(fèi)者出現(xiàn)活鎖問題時(shí)應(yīng)該()。
A、增加max.poll,intervaI.ms相關(guān)參數(shù)
B、減少消費(fèi)者數(shù)量
C、重啟集群
D、提IWJpoII頻率
答案:A
51.Hive中分組的關(guān)鍵字是什么()?
Axgroupby
Bvorderby
C、distributeby
D、sortby
答案:A
52.關(guān)于Hive數(shù)據(jù)傾斜問題描述正確的是()。
A、不需要了解業(yè)務(wù),對(duì)業(yè)務(wù)進(jìn)行數(shù)據(jù)探查無法解決數(shù)據(jù)傾斜
B、每一個(gè)數(shù)據(jù)傾斜的作業(yè)都需要優(yōu)化
C、小文件合并不會(huì)解決數(shù)據(jù)傾斜的問題
D、可以適當(dāng)?shù)耐ㄟ^控制mapper和reducer來控制數(shù)據(jù)傾斜的問題
答案:D
53.在Docker的運(yùn)行過程中,對(duì)鏡像的操作不包括()。
A、deIete
B、search
C、puII
Dvpush
答案:A
54.關(guān)于SparkStreaming的優(yōu)點(diǎn),不包括()。
A、易用性
B、容錯(cuò)性
C、易整合性
D、低吞吐量
答案:D
55.下列關(guān)于MapReduce說法不正確的是()。
A、MapReduce是一種計(jì)算框架
B\MapReduce來源于googIe的學(xué)術(shù)論文
C\MapReduce程序只能用java語言編寫
D\MapReduce隱藏了并行計(jì)算的細(xì)節(jié),方便使用
答案:C
56.以下關(guān)于Spark中的RDD的說法,錯(cuò)誤的是()。
A、RDD就是一個(gè)分布式對(duì)象集合,本質(zhì)上是一個(gè)只讀的分區(qū)記錄集合
B、每個(gè)RDD可分成多個(gè)分區(qū),每個(gè)分區(qū)就是一個(gè)數(shù)據(jù)集片段
C、RDD提供了一種高度共享內(nèi)存模型,RDD既可以讀,也可以直接修改
D、RDD的不同分區(qū)可以被保存到集群中不同的節(jié)點(diǎn)上,從而可以在集群中的不
同節(jié)點(diǎn)上進(jìn)行并行計(jì)算
答案:c
57.以下關(guān)于Spark計(jì)算框架,說法錯(cuò)誤的是()。
A、Spark支持內(nèi)存計(jì)算
B、Spark框架是使用Java編寫的
C、Spark提供了完整而強(qiáng)大的技術(shù)棧,包括SQL查詢、流式計(jì)算、機(jī)器學(xué)習(xí)和
圖算法組件
D\Spark可運(yùn)行于獨(dú)立的集群模式中,可運(yùn)行于Hadoop中,也可運(yùn)行于Amazo
nEC2等云環(huán)境中
答案:B
58.在Hadoop生態(tài)組件中,哪個(gè)產(chǎn)品可用于復(fù)雜的批量數(shù)據(jù)處理。()
A、MapReducevHive
B、ImpaIa
C、Storm
D、Mahout
答案:A
59.在Hive中,以下哪個(gè)配置參數(shù)用于指定Hive服務(wù)器的端口號(hào)()?
A、hive,server,port
B、hive.server2,thrift.port
Cvhive.server,rpc.port
Dvhive,thrift,server.port
答案:B
60.HadoopMapReduce支持多種語言編程,下列說法不正確的是()。
A、可以用JAVA語言編寫MapReduce應(yīng)用程序
B、可以用C/C++語言編寫MapReduce應(yīng)用程序
C、可以用Python語言編寫MapReduce應(yīng)用程序
D、可以用javascript語言編寫MapReduce應(yīng)用程序
答案:D
61.查看HDFS的報(bào)告命令是0o
A、bin/hdfsdfsadmin-report
B、in/hdfs-report
C、bin/hdfsdeadmin-report
D、bin/hdfsdfs-report
答案:A
62.以下選項(xiàng)哪個(gè)是HDFS的名稱節(jié)點(diǎn)()。
A、DataNode
B、SecondaryNode
C、Node
DvNameNode
答案:D
63.SparkJob默認(rèn)的調(diào)度模式是()。
A、FIFO
B、FAIR
C\無
D、運(yùn)行時(shí)指定
答案:A
64.Flume的哪個(gè)版本引入了Kafka作為其事件源和接收器?()
A、FIume1.6
B、FIume1.7
C、DH5.0
D、CDH5.1
答案:c
65.在ZooKeeper中,關(guān)于節(jié)點(diǎn)的ACL(訪問控制列表)說法錯(cuò)誤的是O。
A、CL可以用于控制節(jié)點(diǎn)的讀寫權(quán)限
B、ACL可以定義多個(gè)權(quán)限組合
C、ACL可以設(shè)置到子節(jié)點(diǎn)上并繼承父節(jié)點(diǎn)的權(quán)限
D、ACL只能設(shè)置在持久節(jié)點(diǎn)上
答案:D
66.查看Docker所有容器的命令是()。
A、dockerps
B、dockerps-a
C、dockerpsaII
D、ockeraII
答案:B
67.Flume的事件Body可以包含什么類型的數(shù)據(jù)?()
A、String,Byte數(shù)組,字節(jié)流,MapVString,String>和自定義對(duì)象序列化后的數(shù)
據(jù)。
B\String,Map<String,String>和自定義對(duì)象序列化后的數(shù)據(jù)。
C、Byte數(shù)組,字節(jié)流和自定義對(duì)象序列化后的數(shù)據(jù)。
D、String和自定義對(duì)象序列化后的數(shù)據(jù)。
答案:A
68.在ZooKeeper中,節(jié)點(diǎn)可以設(shè)置監(jiān)聽器嗎?()
A、是,可以設(shè)置監(jiān)聽器
B、否,節(jié)點(diǎn)沒有監(jiān)聽功能
C、取決于節(jié)點(diǎn)的類型
D、取決于節(jié)點(diǎn)的權(quán)限設(shè)置
答案:A
69.Flink中的轉(zhuǎn)換算子(TransformationOperator)通常用于()。
A、計(jì)算作業(yè)的結(jié)果
B、控制作業(yè)的執(zhí)行順序
C、定義數(shù)據(jù)源
D、過濾和轉(zhuǎn)換數(shù)據(jù)流
答案:D
70.Flink的安裝過程中,通常需要設(shè)置()來指定Flink的根目錄。
A、JAVA_HOME
B、PATH
C、FLINK_HOME
D、FLINK_PATH
答案:C
71.0不是Spark的四大組件。
A、SparkStreaming
B、MlIib
C、GraphX
D、SparkR
答案:D
72.關(guān)于Dataset,下列說法錯(cuò)誤的是()。
AvDataset能從RDD中構(gòu)建
B、Dataset提供了特定域?qū)ο笾械娜躅愋图?/p>
C、Dataset結(jié)合了RDD和DataFrame的優(yōu)點(diǎn)
D、ataset可以通過SparkSession中的createDataset來創(chuàng)建
答案:B
73.下列()不是RDD的緩存方法。
A、persist0
B、Cache()
C、Memory0
D、以上都不是
答案:C
74.在Hive中,以下哪個(gè)配置參數(shù)用于指定Hive元數(shù)據(jù)存儲(chǔ)的數(shù)據(jù)庫類型()?
Avhive.metastore,uris
B、hive.metastore,schema
C、hive.metastore,db.type
D、hive.metastore,db.urI
答案:c
75.下列描述中,哪項(xiàng)不屬于Sqoop的缺點(diǎn)()。
A、無法控制任務(wù)的并發(fā)度
B、格式緊耦合
C、安全機(jī)制不夠完善
D、connector必須符合JDBC模型
答案:A
76.Hive中的配置文件通常位于哪個(gè)目錄中()?
A、/etc/hive/conf
B、/etc/hadoop/conf
C、/etc/hive/
D、/etc/hive/config
答案:A
77.Flume的哪個(gè)攔截器可以按類型區(qū)分事件?()
A、ETL攔截器
B、分區(qū)攔截器
C、以上都不是
D、以上都是
答案:A
78.yarn狀態(tài)的查詢urI為()。
A、http://yarn:8088
B、http://yarn:50070
C、http://master:8088
D、http://master:50070
答案:c
79.Flume如何處理故障恢復(fù)?()
A、使用事務(wù)性機(jī)制
B、使用重試機(jī)制
C、使用斷點(diǎn)續(xù)傳機(jī)制
D、以上都不是
答案:C
80.Hive是由哪家公司開源的()。
A、GoogIe
B、Facebook
C、LinkedIn
D、NetfIix
答案:B
81.關(guān)于MapReduce優(yōu)點(diǎn),下列說法不正確的是()。
A、高容錯(cuò)性
B、適合PB級(jí)以上海量數(shù)據(jù)的離線處理
C、良好的擴(kuò)展性
D、適合做實(shí)時(shí)計(jì)算
答案:D
82.Flink最常用的編程語言是()。
A、Java
B、Python
C、SeaIa
D\C++
答案:A
83.ZooKeeper中的一致性協(xié)議ZAB是基于()算法實(shí)現(xiàn)。
A、2PC(Two-PhaseCommit)算法
B、Raft算法
C、Paxos算法
D\3PC(Three-PhaseCommit)算法
答案:C
84.Docker的()命令用于構(gòu)建鏡像。
A、create
B、add
C、build
D、new
答案:C
85.DStream的轉(zhuǎn)換操作方法中,()方法可以直接調(diào)用RDD上的操作方法。
A、countByKey()
B、updateStateByKey(func)
C、ogroup(otherStream,[numTasks])
D\transform(func)
答案:D
86.下列關(guān)于leader和follower的說法正確的是()。
A、一個(gè)topic的每個(gè)分區(qū)可以沒有l(wèi)eader
B\一?""btopic的每個(gè)分區(qū)可以沒有follower
C、消費(fèi)者消費(fèi)數(shù)據(jù)的對(duì)象都是leader
D\follower從Ieader中同步數(shù)據(jù)有一定延遲
答案:C
87.HMaster的主要作用是()。
A、用于啟動(dòng)任務(wù)管理多個(gè)HRegionServer
B、負(fù)責(zé)響應(yīng)用戶I/O請(qǐng)求,向HDFS文件系統(tǒng)讀寫數(shù)據(jù)
C、負(fù)責(zé)協(xié)調(diào)集群中的分布式組件
D、最終保存HBase數(shù)據(jù)行的文件
答案:A
88.Flume的哪個(gè)版本加入了對(duì)Thrift事件的的支持?。
A、FIume1.0
B、FIume1.1
C、FIume1.2
D\FIume1.3
答案:B
89.Flink的容錯(cuò)機(jī)制是()工作的,它定期記錄數(shù)據(jù)流的狀態(tài),以便在發(fā)生故
障時(shí)進(jìn)行恢復(fù)。
A、基于備份數(shù)據(jù)
B、基于檢查點(diǎn)
C、基于異常處理
D、基于數(shù)據(jù)重播
答案:B
90.在ZooKeeper中,節(jié)點(diǎn)的數(shù)據(jù)版本是如何維護(hù)的?()
A、自動(dòng)遞增
B、手動(dòng)指定
C、根據(jù)節(jié)點(diǎn)的創(chuàng)建時(shí)間確定
D、隨機(jī)生成
答案:A
91.設(shè)用壓力測(cè)試測(cè)出機(jī)器寫入速度是20M/s一臺(tái),峰值的業(yè)務(wù)數(shù)據(jù)的速度是10
OM/s,副本數(shù)為6,預(yù)估需要部署Kafka機(jī)器數(shù)量為()。
A、6.0
B、12.0
C、13.0
D、20.0
答案:C
92.Kafka的消費(fèi)者可以以什么方式進(jìn)行消息偏移量的管理?()
A、手動(dòng)管理
B、自動(dòng)管理
C、隨機(jī)管理
D、循環(huán)管理
答案:B
93.以下哪個(gè)參數(shù)在sqoop命令中用于指定要?jiǎng)h除HDFS的目標(biāo)目錄?()
Av-deIete-target-dir
B、一target-dir
C、一deIete-dir
Dv-deIete
答案:A
94.namenode在()模式下hdfs文件系統(tǒng)無法修改和寫入文件。
A、安全模式
B、維護(hù)模式
C、同步模式
D、待機(jī)模式
答案:A
95.Flink的核心概念之一是()o
A、數(shù)據(jù)表
B、數(shù)據(jù)流
C、數(shù)據(jù)庫
D、數(shù)據(jù)倉庫
答案:B
96.將nginx容器接入自定義的myops網(wǎng)絡(luò)的操作命令是()。
A、dockernetworkjoinmyopsnginx
B、dockernetworkconnmyopsnginx
C、dockernetworkconnectmyopsnginx
Dvockernetworkconnectnginxmyops
答案:c
97.在Flink的配置文件中,()通常用來指定Flink任務(wù)并行度。
A、paraIleiism.defau11
B、task,paraIIeIism
C、paraIIeIism.defauIt-task
D、task,defauIt-paraIIeIism
答案:D
98.Flume的哪個(gè)版本開始支持Avro作為數(shù)據(jù)傳輸格式?()
A、1.X版本
B、2.X版本
C、3.X版本
D\4.X版本以后
答案:D
99.下列語句中描述錯(cuò)誤的是()o
A、可以通過CLI方式'JavaApi方式調(diào)用Sqoop
B\Sqoop底層會(huì)將Sqoop命令轉(zhuǎn)換為MapReduce任務(wù),并通過Sqoop連接器進(jìn)行
數(shù)據(jù)的導(dǎo)入導(dǎo)出操作
C、Sqoop是獨(dú)立的數(shù)據(jù)遷移工具,可以在任何系統(tǒng)上執(zhí)行
D\如果在Hadoop分布式集群環(huán)境下,連接MySQL服務(wù)器參數(shù)不能是"localhos
t”或“127.0.0.1"
答案:C
100.Flume的Snk組件負(fù)責(zé)什么?()
A、將數(shù)據(jù)從Channel中讀取并寫入目標(biāo)位置
B、將數(shù)據(jù)從Channel中讀取并發(fā)送到下一組件
C、從Channel中讀取數(shù)據(jù)并將其寫入接收器
D、從Channel中讀取數(shù)據(jù)并將其寫入目標(biāo)位置。
答案:D
101.DStream的輸出操作,不包括()。
A、foreachRDD(func)
B、print0
C\fIatMap(func)
D、saveAsTextFiIes(prefix)
答案:C
102.Flume的事件傳輸方式是什么?()
A、puII-based
B、push-based
C\stream-based
D、event-based
答案:B
103.下面那種情況不會(huì)觸發(fā)?ConsumerRebalance操作()。
A、某個(gè)消費(fèi)者崩潰
B、某個(gè)生產(chǎn)者崩潰
C、消費(fèi)者消費(fèi)的多個(gè)topic中某個(gè)topic被刪除
D、新增消費(fèi)者
答案:B
1O4.Flume的攔截器實(shí)現(xiàn)了哪個(gè)接口?()
A、ChannelInterceptor
B、EventInterceptor
C、SinkInterceptor
D、SourceInterceptor
答案:B
105.Kafka的核心是由哪個(gè)組件組成?()
A、Producer
B、Consumer
C、Broker
DvZooKeeper
答案:c
106.以下哪個(gè)選項(xiàng)不是Sqoop的導(dǎo)入模式?()
A、純文本導(dǎo)入
B、二進(jìn)制導(dǎo)入
GAvro導(dǎo)入
D、JS0N導(dǎo)入
答案:D
107.關(guān)于SecondaryNameNode哪項(xiàng)是正確的?()
A、它是NameNode的熱備
B、它的目的是幫助NameNode合并編輯日志,減少NameNode啟動(dòng)時(shí)間
C、它對(duì)內(nèi)存沒有要求
D、SecondaryNameNode應(yīng)與NameNode部署到一個(gè)節(jié)點(diǎn)
答案:B
108.以下哪種不是Hive支持的數(shù)據(jù)類型()o
A、Struct
B、Int
C、Map
DvLong
答案:D
109.獲取遠(yuǎn)程倉庫中Docker鏡像的操作命令是()。
A、dockerget
B、dockerpush
C、dockerpuII
D、ockerdownIoad
答案:c
110.Hive的默認(rèn)元數(shù)據(jù)存儲(chǔ)是什么()?
A、MySQL
B、PostgreSQL
C、Derby
D、OracIe
答案:c
111.Flink中的Watermark是用來(),幫助FIink正確地處理遲到的事件。
A、測(cè)量數(shù)據(jù)流的速度
B、表示數(shù)據(jù)流的起點(diǎn)
C、處理亂序事件
D、控制數(shù)據(jù)流的大小
答案:C
112.Kafka的消息保留策略可以根據(jù)什么進(jìn)行配置?()
A、時(shí)間
B、大小
C、主題
D、分區(qū)
答案:A
113.在Kafka中,O是ISR隊(duì)列中最小的LEO。
A、LEO
B、ISR
C、HW
D、AR
答案:C
114.DockerfiIe中指定環(huán)境變量的指令是()。
A、WORKDIR
B、SHELL
C、ENV
D、ENTRYPOINT
答案:C
115.下列()不可以作為SparkStreaming的輸入數(shù)據(jù)流。
A、Kafka
B、Twitter
c、TCP套接字
D、Openstack
答案:D
116.Hive是為了解決哪類問題()?
A、海量結(jié)構(gòu)化日志的數(shù)據(jù)統(tǒng)計(jì)
B、分布式組件調(diào)度
答案:A
117.Sqoop是Hadoop和關(guān)系數(shù)據(jù)庫服務(wù)器之間傳送數(shù)據(jù)的工具,下列哪種數(shù)據(jù)
庫是不支持使用Sqoop直接進(jìn)行數(shù)據(jù)傳送()。
A、Postgres
B、OracIe
GMySQL
D、Redis
答案:D
118.Hive默認(rèn)的元存儲(chǔ)是保存在內(nèi)嵌的()數(shù)據(jù)庫中。
A、MySQL
B、Derby
C、OracIe
D、SqIServer
答案:B
119.在ZooKeeper中,Watcher是一次性的嗎?()
A、是,一旦觸發(fā)就無法再次使用
B、否,可以反復(fù)使用
G取決于Watcher的類型
D、取決于節(jié)點(diǎn)的類型
答案:C
120.關(guān)于Hive存儲(chǔ)的文件格式描述錯(cuò)誤的是()。
A、ORC格式是Hive一直支持的
B、TEXTFILE是Hive的默認(rèn)存儲(chǔ)格式
C、SequenceFiIe是一種二進(jìn)制存儲(chǔ)
D、RC是ORC的前身
答案:A
121.以下關(guān)于Hive操作描述不正確的是()。
AxHive是一個(gè)建立在hadoop文件系統(tǒng)上的數(shù)據(jù)倉庫架構(gòu),可以用其對(duì)HDFS上
B\Hive依賴于MapReduce處理數(shù)據(jù)
C、Hive的加載數(shù)據(jù)時(shí)候,可以用local進(jìn)行修飾,表示從某個(gè)本地目錄下加載
數(shù)據(jù)
D、Hive一般可以用于實(shí)時(shí)的查詢分析
答案:D
122.Hadoop組件在企業(yè)應(yīng)用中,能用于大數(shù)據(jù)集實(shí)時(shí)查詢的產(chǎn)品有()。
A、Hive
B、Pig
C、Mahout
D、Hbase
答案:D
123.ZooKeeper中的節(jié)點(diǎn)可以設(shè)置()類型的觸發(fā)器。
A、數(shù)據(jù)變更觸發(fā)器
B、子節(jié)點(diǎn)變更觸發(fā)器
C、連接狀態(tài)觸發(fā)器
D、所有類型的觸發(fā)器
答案:D
124.下面哪個(gè)命令是創(chuàng)建hive表()□
A、import-aII-tabIes
B、Iist-databases
C、Iist-tabIes
D、create-hive-tabIe
答案:D
125.將一個(gè)已經(jīng)創(chuàng)建的容器導(dǎo)出到一個(gè)文件使用的操作命令是()。
A、dockerimport
B、dockerIoad
C、dockeroutput
D、ockerexport
答案:D
126.關(guān)于Hive的SequenceFiIe格式描述正確的是()。
A、SequenceFiIe是二進(jìn)制文件格式,以Iist的形式序列化到文件中
B\SequenceFiIe存儲(chǔ)方式:列存儲(chǔ)
C、SequenceFiIe不可分割、壓縮
D、SequenceFiIe優(yōu)勢(shì)是文件和Hadoopapi中的MapFiIe是相互兼容的
答案:D
127.Hive中的哪個(gè)配置參數(shù)用于指定Hive表的默認(rèn)分隔符()?
A、hive,default,delimiter
B\hive,default,separator
C\hive.defau11.fieId.deIim
答案:C
128.Docker內(nèi)置網(wǎng)絡(luò)模式不包括()。
A、host模式
B\mynet模式
C、none模式
D\bridge模式
答案:B
129.Docker配置文件的語法格式中,代表單個(gè)字符的符號(hào)是()。
A、*
B、?
C、!
D「
答案:B
130.新構(gòu)建一個(gè)名為mydocker的鏡像的操作命令是()。
A、dockernewmydocker
BvdockerbuiIdmydocker
C、dockernew-tmydocker
D、ockerbuild-tmydocker
答案:D
131.在Hive中,哪個(gè)配置參數(shù)用于指定Hive的執(zhí)行模式,如本地模式或MapRe
duce模式()?
A、hive.execution.engine
B、hive.execution.mode
Cvhive.mapred.mode
Dvhive.exec,mode
答案:B
132.下面哪個(gè)命令行參數(shù)可以用來刪除Kafka中的Topic?()
A、Iist
B、create
CvdeIete
Dvescribe
答案:c
133.下列選項(xiàng)中,()不屬于轉(zhuǎn)換算子操作。
A、fiIter(func)
B、map(func)
C\reduce(func)
D、reduceByKey(func)
答案:C
134.關(guān)于Hive描述正確的是()。
A、count函數(shù)必須開窗口才能使用
B\max函數(shù)是窗口函數(shù)
C、lead函數(shù)是聚合函數(shù),不是窗口函數(shù)
D、min函數(shù)是聚合函數(shù),不是窗口函數(shù)
答案:B
135.Dockerfile中聲明鏡像內(nèi)服務(wù)監(jiān)聽的端口的指令是()。
A、LISTEN
B、EXPOSE
C、ARG
D、MONITOR
答案:B
136.Flink的作業(yè)提交通常需要()來管理作業(yè)的執(zhí)行。
A、JobManager
B、TaskManager
C、ResourceManager
D、NameNode
答案:A
137.在Centos中啟動(dòng)Docker服務(wù)的命令是()。
A、systemstartdocker
B、systemenabIedocker
CvsystemctIstartdocker
DvsystemctIrundocker
答案:c
138.DataFrame和RDD最大的區(qū)別是()。
A、科學(xué)統(tǒng)計(jì)支持
B、多schema
C、存儲(chǔ)方式不一樣
D、外部數(shù)據(jù)源支持
答案:B
139.ZooKeeper使用的是()文件系統(tǒng)。
A、HadoopDistributedFiIeSystem(HDFS)
B、NetworkFiIeSystem(NFS)
C\ZooKeeperFiIeSystem(ZFS)
D、ExtensibIeStorageEngine(ESE)
答案:C
140.允許開發(fā)人員為容器分配MAC地址的是()。
A、網(wǎng)橋網(wǎng)絡(luò)
B、覆蓋網(wǎng)絡(luò)
C、驅(qū)動(dòng)網(wǎng)絡(luò)
D、主機(jī)網(wǎng)絡(luò)
答案:C
141.Spark默認(rèn)的存儲(chǔ)級(jí)別是()。
A、MEM0RY_0NLY
B、MEM0RY_0NLY_SER
C、MEMORY_AND_DISK
D、MEMORY_AND_DISK_SER
答案:A
142.HBase依賴()技術(shù)框架提供消息通信機(jī)制。
A、Zookeeper
B、Chubby
C、RPC
D\Socket
答案:A
143.與傳統(tǒng)消息系統(tǒng)相比,Kafka的突出特點(diǎn)不包括()。
A、能夠持久化日志
B、容錯(cuò)能力強(qiáng),是一個(gè)分布式系統(tǒng)
C、支持實(shí)時(shí)的流式處理
D、提供在線消息同步和離線消息緩存的能力
答案:D
144.下面()端口不是Spark自帶服務(wù)的端口。
A、8080.0
B、4040.0
C、8090.0
D、18080.0
答案:C
145.在Hive中,以下哪個(gè)配置參數(shù)用于指定HiveCLI的歷史命令記錄文件名()?
A、hive.history,file,name
B、hive.cIi.history.file
Cvhive.command.Iog.fiIename
Dvhive.query.Iog.file
答案:B
146.在HDFS分布式文件系統(tǒng)中,一般采用冗余存儲(chǔ),冗余因子通常設(shè)置為()o
A、1.0
B、2.0
C、3.0
D、4.0
答案:c
147.Flink的Web界面通常用于()。
A、編寫Flink作業(yè)
B、監(jiān)控Flink集群
G運(yùn)行Flink作業(yè)
D、調(diào)試Flink作業(yè)
答案:B
148.關(guān)于DStream窗口操作函數(shù),以下說法錯(cuò)誤的是()。
A、window()返回基于源DStream的窗口進(jìn)行批計(jì)算后的一個(gè)新的Dstream
B\countByWindow。返回基于滑動(dòng)窗口的DStream中的元素?cái)?shù)
C\reduceByWindow()做聚合操作并返回—新的Dstream
D、以上說法都不對(duì)
答案:D
149.Docker是基于。實(shí)現(xiàn)的開源容器項(xiàng)目。
A、C語后
B、Java]吾己
C、Go語三
D、Python語言
答案:C
150.在Sqoop中,使用哪個(gè)命令可以列出可用的數(shù)據(jù)庫連接?()
A、sqoopIist-databases
B、sqoopheIp
C、sqoopconnections
D、sqoopserver
答案:A
151.Kafka的消息消費(fèi)可以使用哪種模式?()
A、單播
B、組播
C、廣播
D、串播
答案:A
152.下面()操作是寬依賴。
A、map公
B\fIatMap
C、groupByKey
D、union
答案:c
153.當(dāng)之前下線的分區(qū)重新上線時(shí),要執(zhí)行Leader選舉,選舉策略為()。
A、OffIinePartitionLeader選舉
B、ReassignPartitionLeader選舉
CvPreferredRepIicaPartitionLeader選舉
DvControIIedShutdownPartitionLeader選舉
答案:A
154.Hadoop安裝在一臺(tái)計(jì)算機(jī)上,需修改相應(yīng)的配置文件,用一臺(tái)計(jì)算機(jī)模擬
多臺(tái)主機(jī)的集群是()模式。
A、全分布模式
B、偽分布模式
C、單機(jī)模式
D、全分布HA模式
答案:B
155.FIink支持的數(shù)據(jù)處理方式為()。
A、批處理
B、流處理
C、以上都是
D、無法確定
答案:C
156.()參數(shù)不影響kafka重平衡?
A、session.timeout.ms
B、heartbeat,intervaI.ms
C、message,max.bytes
D、max.poll,intervaI.ms
答案:c
157.在ZooKeeper中,()角色負(fù)責(zé)協(xié)調(diào)其他節(jié)點(diǎn)的工作。
A、領(lǐng)導(dǎo)者(Leader)
B、跟隨者(Follower)
C\觀察者(Observer)
D、所有角色均可
答案:A
158.當(dāng)使用sqoop將數(shù)據(jù)從MySQL導(dǎo)入到HDFS時(shí),以下哪個(gè)參數(shù)用于指定使用
多個(gè)mapper?()
A、-m
B、-f
C、-t
D、-c
答案:A
159.SparkSQL可以處理的數(shù)據(jù)源包括O。
A、Hive表
B、Hive表、數(shù)據(jù)文件
C、Hive表、數(shù)據(jù)文件、RDD
D、Hive表、數(shù)據(jù)文件、RDD、外部數(shù)據(jù)庫
答案:D
160.SparkStreaming中對(duì)DStream的轉(zhuǎn)換操作會(huì)轉(zhuǎn)變成對(duì)()的操作。
A、sqI
B、dataset
C、rdd
D、ataframe
答案:c
161.關(guān)于DataFrame與RDD在結(jié)構(gòu)上的區(qū)別,以下描述錯(cuò)誤的是()。
A、DataFrame可以看作是分布式的Row對(duì)象的集合,在二維表數(shù)據(jù)集的每一列
都帶有名稱和類型
B、RDD是分布式的Java對(duì)象的集合
C、RDD在轉(zhuǎn)換數(shù)據(jù)形式時(shí)效率相對(duì)較高
D\ataFrame提供了比RDD更豐富的算子
答案:C
162.配置Hadoop文件參數(shù)時(shí),配置項(xiàng)“dfs.repIication"應(yīng)該配置在哪個(gè)文件?
。
A、core-site,xml
B、hdfs-site.xml
C、mapred-site.xml
D、yarn-site,xml
答案:B
163.停止一個(gè)容器的操作命令是()。
Avdockerstop
B、dockershutdown
C、dockershift
Dvockerpause
答案:A
164.下列不是Spark的部署模式的是()。
A、單機(jī)式
B、單機(jī)偽分布式
C、列分布式
D、完全分布式
答案:C
165.下列哪個(gè)數(shù)據(jù)類型不是hadoop的數(shù)據(jù)類型()。
A、Text
B、String
GIntWritabIe
D、NulIWritable
答案:B
166.Flume的事件可以包含哪些屬性?()
AvTimest,Type,Body,Headers,Count
B、Timest,Type,Body,Headers,ID
C、Timest,Type,Body,Headers,SequenceID
DvTimest,Type,Body,Headers,Number
答案:c
167.在ZooKeeper中,ZAB協(xié)議是()。
A、用于節(jié)點(diǎn)間的數(shù)據(jù)同步和一致性保證的協(xié)議
B、用于節(jié)點(diǎn)間的消息傳遞和通信的協(xié)議
C、用于節(jié)點(diǎn)間的負(fù)載均衡和路由選擇的協(xié)議
D、用于節(jié)點(diǎn)間的權(quán)限控制和訪問管理的協(xié)議
答案:A
168.Flink的狀態(tài)管理用于(),以支持容錯(cuò)性和狀態(tài)化的計(jì)算。
A、存儲(chǔ)和檢索中間結(jié)果
B、控制數(shù)據(jù)流速度
C、定時(shí)觸發(fā)窗口操作
D、執(zhí)行數(shù)據(jù)清洗
答案:A
169.下列關(guān)于topic和partition的描述,錯(cuò)誤的是()。
A、Kafka中消息是以partition進(jìn)行分類的
B\與partition不同,topic是邏輯上的概念而非物理上的概念
C、每個(gè)partition對(duì)應(yīng)于—log文件
D\—partition分為多個(gè)segment
答案:A
170.在Flink中,()通常用于指定Flink作業(yè)的任務(wù)流圖(JobGraph)o
AxfIink.xml
B\job.conf
C、flperties
D、fIink-config.yamI
答案:D
171.Flume的哪個(gè)組件可以保證數(shù)據(jù)不會(huì)丟失?()
A、通道
B、接收器
C、攔截器
D、源
答案:B
172.當(dāng)在Sqoop中使用一append參數(shù)時(shí),它會(huì)將數(shù)據(jù)添加到目標(biāo)表的哪個(gè)位置?
()
A、文件的開頭
B、文件的末尾
C、新文件中
D、隨機(jī)位置
答案:B
173.以下關(guān)于RDD的寬依賴和窄依賴的說法錯(cuò)誤的是()。
A、窄依賴表現(xiàn)為子RDD的一個(gè)分區(qū)只依賴于某個(gè)(些)父RDD的一個(gè)分區(qū)
B、寬依賴則表現(xiàn)為子RDD的一個(gè)分區(qū)依賴于同一個(gè)父RDD的多個(gè)分區(qū)
C、寬依賴的RDD之間無ShuffIe操作
D、窄依賴的RDD之間無ShuffIe操作
答案:C
174.Docker的三大核心不包括()。
A、容器
B、算法
C\鏡像
D、倉庫
答案:B
175.下列()不是Docker項(xiàng)目中用于文件存儲(chǔ)的數(shù)據(jù)庫。
A、MYSQL
B、MongoDB
GRedis
D\Kafka
答案:D
176.Kafka服務(wù)器默認(rèn)能接收的最大消息是多大?()$
A、1M
B、10M
C、100M
D、沒有大小限制,因?yàn)橹С执髷?shù)據(jù)
答案:A
177.Spark采用RDD以后能夠?qū)崿F(xiàn)高效計(jì)算不是因?yàn)椋ǎ?/p>
A、高效的容錯(cuò)性,通過血緣關(guān)系重新計(jì)算丟失分區(qū)
B、中間結(jié)果持久化到內(nèi)存,數(shù)據(jù)在內(nèi)存中的多個(gè)RDD操作之間進(jìn)行傳遞,避免
了不必要的讀寫磁盤開銷
C、存放的數(shù)據(jù)可以是Java對(duì)象,避免了不必要的對(duì)象序列化和反序列化
D、RDD采用了高效的“轉(zhuǎn)換”和“動(dòng)作”算子
答案:D
178.FIink支持處理各種類型的數(shù)據(jù),包括()數(shù)據(jù)。
A、結(jié)構(gòu)化
B、半結(jié)構(gòu)化
C、無結(jié)構(gòu)化
D、以上都是
答案:D
179.Hive是以()技術(shù)為基礎(chǔ)的數(shù)據(jù)倉庫。
A、HDFS
B、MAPREDUCE
C、HADOOP
D、HBASE
答案:C
180.Flink的作業(yè)調(diào)度(JobScheduIing)通常由()負(fù)責(zé)。
A、ResourceManager
B\TaskManager
C、JobManager
D\ZooKeeper
答案:C
181.Flume的哪個(gè)組件用于將事件數(shù)據(jù)寫入目標(biāo)存儲(chǔ)?()
A、ChanneI
B、Sink
C、Source和ChanneI
D\Source和Sink
答案:B
182.關(guān)于HiveSQL編譯描述正確的是()。
A、HiveSQL的Parser層是為了將SQL轉(zhuǎn)化為執(zhí)行計(jì)劃的
B、邏輯層優(yōu)化器會(huì)進(jìn)行算子轉(zhuǎn)換,優(yōu)化合并不必要的算子操作
C\MapReduce任務(wù)是需要遍歷QueryBlock后生成的
D、編譯器遍歷ASTTree,抽象出查詢的基本組成單元OperatorTree
答案:B
183.Docker的()命令只支持將本地文件復(fù)制到容器中。
A、DD
B、COPY
C、SCP
D、PUT
答案:B
184.在HDFS文件操作中,上傳文件的命令是()o
Avput
B、input
C、get
Dvup
答案:A
185.制作鏡像時(shí),復(fù)制文件到鏡像中使用的命令是()。
A、DD
B、COPY
C、RUN
D、CMD
答案:B
186.以下關(guān)于Spark與Hadoop對(duì)比,說法錯(cuò)誤的是()。
A、Spark的計(jì)算模式也屬于MapReduce,但不局限于Map和Reduce操作,還提
供了多種數(shù)據(jù)集操作類型,編程模型比HadoopMapReduce更靈活
B、Spark提供了內(nèi)存計(jì)算,可將中間結(jié)果放到內(nèi)存中,對(duì)于迭代運(yùn)算效率更高
C、Spark磁盤I0開銷較大,任務(wù)之間的銜接涉及I0開銷
D、Spark基于DAG的任務(wù)調(diào)度執(zhí)行機(jī)制,要優(yōu)于HadoopMapReduce的迭代執(zhí)行
機(jī)制
答案:C
187.Hive適合()環(huán)境。
A、Hive適合用于聯(lián)機(jī)(onIine)事務(wù)處理
B、提供實(shí)時(shí)查詢功能
C、適合應(yīng)用在大量不可變數(shù)據(jù)的批處理作業(yè)
D、Hive適合關(guān)系型數(shù)據(jù)環(huán)境
答案:C
188.強(qiáng)制刪除容器tmp01的操作命令是()。
A、dockerrm-ftmp01
B\dockerrm-vtmp01
C\dockerrm-1tmp01
D、ockerrm-ltmpOl
答案:A
189.在Sqoop中,哪個(gè)參數(shù)用于指定要導(dǎo)入的目標(biāo)表?()
A、-tabIe
B、-target-dir
Cv-outdir
Dv-where
答案:A
190.以下()文件中主要用來配置ResourceManager,NodeManager的通信端口,
web監(jiān)控端口等。
Avcore-site,xml
B、mapred-site.xml
C、hdfs-site.xmI
Dvyarn-site,xml
答案:D
191.Docker運(yùn)行的核心模塊是()。
A、DockerServer
BvDockerEngine
C、DockerCIient
答案:B
192.關(guān)于SparkSQL,以下說法正確的是()。
A、HiveContext繼承了SqIContext
B、DataFrame其實(shí)就是RDD
C、HiveContext只支持SQL語法解析器
D、SparkSQL的前身是Hive
答案:A
193.若要在Hive中啟用壓縮數(shù)據(jù)存儲(chǔ),應(yīng)該設(shè)置哪個(gè)配置參數(shù)()?
A、hive.compress,enabIed
B、hive.compression.enabIed
C、hive.storage,compression.enabIed
答案:B
194.Kafka的消息以什么形式進(jìn)行存儲(chǔ)?()
A、表格
B、集合
C、文檔
D、日志
答案:D
195.關(guān)于MapReduce的說法正確的是()。
A、MapReducel.0用YARN框架來進(jìn)行資源調(diào)度的
BvMapReduce是基于內(nèi)存計(jì)算的框架
C\MapReduce是分布式文件存儲(chǔ)系統(tǒng)
D、MapReducel.0既是一個(gè)計(jì)算框架又是一個(gè)資源調(diào)度框架
答案:D
196.dockerfiIe文件的作用是()。
A、普通文件
B、用于自定義鏡像
C、用于保存容器配置
D\用于存放docker配置
答案:B
197.Flume的默認(rèn)通道類型是什么?()
A、MemoryChanneI
B、FiIeChanneI
GKafkaChanneI
D、JdbcChanneI
答案:A
198.Kafka的消費(fèi)者在處理消息時(shí)可以選擇的模式是()。
A、單線程模式
B、多線程模式
C、分布式模式
D、并行模式
答案:B
199.關(guān)于Hive各個(gè)格式使用場(chǎng)景描述錯(cuò)誤的是()。
A、Parquet對(duì)于大型查詢的類型是高效的,對(duì)于掃描特定表格中的特定列的查
詢,Parquet特別有用
B\目前Parquet默認(rèn)使用gzip壓縮格式
C、0RC可以支持復(fù)雜的數(shù)據(jù)結(jié)構(gòu)(比如Map等)
D、RCFiIe是一種行列存儲(chǔ)相結(jié)合的存儲(chǔ)方式
答案:B
200.Kafka的消息傳遞語義是O。
A、最終一致性
B、強(qiáng)一致性
C、弱一致性
D、無一致性
答案:C
201.在Docker數(shù)據(jù)管理中,數(shù)據(jù)卷可以提供的特性不包括()。
A、數(shù)據(jù)卷可以在容器之間共享和重用
B、對(duì)數(shù)據(jù)卷內(nèi)數(shù)據(jù)的修改立馬生效
C、對(duì)數(shù)據(jù)卷的更新不影響鏡像
D、掛載數(shù)據(jù)卷時(shí)要手工創(chuàng)建掛載目錄
答案:D
202.ZooKeeper中的數(shù)據(jù)模型是基于()。
A、關(guān)系模型
B、鍵值對(duì)模型
C、圖模型
D、文檔模型
答案:B
203.關(guān)于Hive內(nèi)外表描述正確的是()。
A、內(nèi)部表數(shù)據(jù)由HDFS自身管理,外部表數(shù)據(jù)由Hive管理;
B、內(nèi)部表數(shù)據(jù)存儲(chǔ)的位置是hive.metastore,warehouse,dir設(shè)置配置(默認(rèn):
/user/hive/warehouse)
C\外表存儲(chǔ)必須指定LOCATION
D、內(nèi)外表刪除時(shí),都會(huì)刪除元數(shù)據(jù)和存儲(chǔ)
答案:B
204.Flume的事件是什么?()
A、數(shù)據(jù)項(xiàng),記錄,和文件
B、數(shù)據(jù)流,記錄,和事件
G數(shù)據(jù)項(xiàng),記錄,和消息
D、數(shù)據(jù)流,記錄,和消息
答案:D
205.使用Dockerrun命令運(yùn)行一個(gè)容器時(shí),通過參數(shù)()可啟動(dòng)一個(gè)bash允許
用戶進(jìn)行交互。
A、it
B、ia
C\nt
D\na
答案:A
206.Flink的集群部署通常需要()作為資源管理器。
A、YARN
B\ApacheZooKeeper
C、ApacheKafka
D、HadoopHDFS
答案:A
207.以下哪個(gè)文件是能夠修改HDFS的副本保存數(shù)量參數(shù)()。
A、修改mapred-site.xml配置文件
B、修改core-site,xml配置文件
G修改yarn-site.xml配置文件
D、修改hdfs-site.xml配置文件
答案:D
208.使用create命令新建容器時(shí),指定容器在網(wǎng)絡(luò)中的別名的命令選項(xiàng)是()。
Avnet-name
B、net-aIias
C、network
Dvalias
答案:B
209.下列哪種情況不會(huì)觸發(fā)到消費(fèi)者分區(qū)的重新分配?
A、當(dāng)有新的消費(fèi)者加入消費(fèi)者組
B、已有的消費(fèi)者推出消費(fèi)者組
C、處于消費(fèi)者所在分區(qū)最近提交的。開set位置
D、消費(fèi)者所訂閱的主題的分區(qū)發(fā)生變化
答案:C
210.Flink的TabieAPI和SQL用于()。
A、數(shù)據(jù)可視化
B、執(zhí)行SQL查詢
C、數(shù)據(jù)流分析
D、數(shù)據(jù)清洗
答案:B
211.Flume的Kafka源類型是什么?()
AvKafkaSource
B、KafkaSpout
C、KafkaAvroSource
DvKafkaEventSource
答案:C
212.Hive中以下操作不正確的是()。
A、IoaddatainpathintotabIename
BvinsertintotabIename
C、insertoverwritetabIename
D、upddatetabIename
答案:D
213.Linux下啟動(dòng)HDFS的命令是()。
A、Hdfs
B、startdfs
C、start-dfs.sh
Dvstart-dfs.cmd
答案:c
214.下列說法錯(cuò)誤的是()o
A、生產(chǎn)者和消費(fèi)者面向的都是一個(gè)topic
B、生產(chǎn)者發(fā)送數(shù)據(jù)的對(duì)象是leader
C、當(dāng)集群中的某個(gè)節(jié)點(diǎn)發(fā)生故障時(shí),Replica上的partition數(shù)據(jù)不會(huì)丟失
D、partition是一個(gè)沒有順序的隊(duì)列
答案:D
215.以下哪個(gè)是正確的sqoop導(dǎo)入數(shù)據(jù)的完整命令?()
A、sqoopimport-connectjdbc:mysqI://locaIhost:3306/userdb-usernamero
ot-deIete-target-dir-target-dir/MysqIToHDFSI-tabIestudent
B、sqoopimportdata-connectjdbc:mysqI://1ocaIhost:3306/userdb-userna
meroot-deIete-target-dir-target-dir/MysqIToHDFSI-tabIestudent
C、bin/sqoopimport-connectjdbc:mysqI://1ocaIhost:3306/userdb-userna
meroot-deIete-target-dir-target-dir/MysqIToHDFSI-tabIestudent
D、bin/sqoopimportdata-connectjdbc:mysqI://1ocaIhost:3306/userdb-us
ernameroot-deIete-target-dir-target-dir/MysqIToHDFSI-tabIestudent
答案:c
216.Flink中的Checkpoints(檢查點(diǎn))主要用于()。
A、實(shí)現(xiàn)ExactIy-once語義
B、控制并行度
C、執(zhí)行作業(yè)
D、壓縮數(shù)據(jù)
答案:A
217.在ZooKeeper中,在配置文件zoo.cfg中,請(qǐng)問initLimit表示的含義是()。
A、Leader-FoIIower初始通信時(shí)限
B\Leader-Follower同步通信時(shí)限
C、Iient-Server通信心跳時(shí)間
D、Client-Server初始通信時(shí)限
答案:A
218.Sqoop的作用是()o
A、用于傳統(tǒng)關(guān)系數(shù)據(jù)庫和Hadoop之間傳輸數(shù)據(jù)
B、提供對(duì)日志數(shù)據(jù)進(jìn)行簡(jiǎn)單處理的能力
C、是Hadoop體系中數(shù)據(jù)存儲(chǔ)管理的基礎(chǔ)
D、是一個(gè)建立在HDFS之上,面向列的針對(duì)結(jié)構(gòu)化和半結(jié)構(gòu)化數(shù)據(jù)和動(dòng)態(tài)數(shù)據(jù)庫
答案:A
219.Flink的主要特點(diǎn)是()o
A、高吞吐量
B、低延遲
C、ExactIy-once處理語義
D、以上都是
答案:D
220.Task運(yùn)行在下面()選項(xiàng)中Executor上的工作單元。
A、Driverprogram
B\sparkmaster
C、workernode
D\CIustermanager
答案:C
221.Flink的日志管理通常包括()這幾個(gè)方面。
A、日志存儲(chǔ)和檢索
B、日志清理和壓縮
C、日志分析和報(bào)警
D、以上都是
答案:D
多選題
1■關(guān)于ZooKeeper順序節(jié)點(diǎn)的說法不正確的是O。
A、創(chuàng)建順序節(jié)點(diǎn)的命令為:create/testvaIue1
B、創(chuàng)建順序節(jié)點(diǎn)時(shí)不能連續(xù)執(zhí)行創(chuàng)建命令,否者報(bào)錯(cuò)節(jié)點(diǎn)已存在
C、通過順序節(jié)點(diǎn),可以創(chuàng)建分布式系統(tǒng)唯一ID
D、順序節(jié)點(diǎn)的序號(hào)能無限增加
答案:ABD
2.Flume的可靠性機(jī)制包括哪些內(nèi)容?()
A、數(shù)據(jù)備份存儲(chǔ)
B、數(shù)據(jù)重復(fù)傳輸
C、數(shù)據(jù)校驗(yàn)和
D、數(shù)據(jù)順序保證
答案:ABCD
3.查看Docker容器的子命令有()。
A、display
B\stats
C、inspect
D、Iist
答案:BC
4Flink的緩存機(jī)制包含以下哪些內(nèi)容()o
A、可以使用戶在并行函數(shù)中很方便的讀取本地文件
B、通過ExecutionEnvironment注冊(cè)緩存文件并為其起名
C\當(dāng)程序執(zhí)行時(shí),F(xiàn)link自動(dòng)將文件或目錄復(fù)制到所有TaskManager節(jié)點(diǎn)的本
地文件系統(tǒng)
D、用戶可以從TaskManager節(jié)點(diǎn)的本地文件系統(tǒng)訪問它
答案:ABCD
5.Flink核心組成部分提供了面向()的接口。
A、批處理
B、流處理
C、表
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 版回遷房購房合同
- 灰砂磚代理購銷協(xié)議
- 別墅品質(zhì)專業(yè)保證
- 瓷磚質(zhì)量保證書承諾
- 房屋租賃合同補(bǔ)充協(xié)議糾紛處理
- 借款保證書的書寫
- 工作失責(zé)反省書模板
- 經(jīng)濟(jì)印刷服務(wù)合同
- 電信服務(wù)合同仲裁程序說明
- 藝人簽約經(jīng)紀(jì)人合約
- BOSS GT-6效果處理器中文說明書
- 網(wǎng)絡(luò)安全培訓(xùn)
- 學(xué)校食品安全與膳食經(jīng)費(fèi)管理制度(3篇)
- 2020年甘肅公務(wù)員考試申論試題(省級(jí)卷)
- 【事業(yè)單位考試真題】《綜合基礎(chǔ)知識(shí)》必看考點(diǎn)《刑法》(2021年版)(附答案解析)
- 大學(xué)生職業(yè)規(guī)劃大賽成長(zhǎng)賽道
- 第三單元(整體教學(xué)設(shè)計(jì))七年級(jí)語文上冊(cè)大單元教學(xué)名師備課系列(統(tǒng)編版2024)
- 魯教版五四制初中八年級(jí)化學(xué)全一冊(cè)全套教案
- 2024年煙草知識(shí)考試題庫
- 餐飲服務(wù)電子教案 學(xué)習(xí)任務(wù)4 雞尾酒調(diào)制
- 【大單元整體教學(xué)】教科版科學(xué)五年級(jí)上冊(cè)-第一單元《光》第1課有關(guān)光的思考-單元整體分析+課時(shí)公開課一
評(píng)論
0/150
提交評(píng)論