版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)
文檔簡介
1.制作鏡像時,復(fù)制文件到鏡像中使用的命令是()。2.在配置好Hadoop集群之后,通過瀏覽器登錄查看HDFS狀態(tài),以下是查看的URL()。類型,這些SQL類型被映射什么類型()。4.在ZooKeeper中,在配置文件zoo.cfg中,請問initLimit表示的含義是()。A、Leader-Follower初始通信時限B、Leader-Follower同步通信時限C、lient-Server通信心跳時間5.在ZooKeeper中,事務(wù)日志(transactionlog)用于記錄()。A、節(jié)點(diǎn)的數(shù)據(jù)變更操作B、節(jié)點(diǎn)的子節(jié)點(diǎn)變更操作D、所有節(jié)點(diǎn)的操作6.在ZooKeeper中,每個節(jié)點(diǎn)都有一個唯一的標(biāo)識符,這個標(biāo)識符是()。7.在ZooKeeper中,節(jié)點(diǎn)可以設(shè)置監(jiān)聽器嗎?()D、取決于節(jié)點(diǎn)的權(quán)限設(shè)置8.在ZooKeeper中,節(jié)點(diǎn)的數(shù)據(jù)版本是如何維護(hù)的?()B、手動指定C、根據(jù)節(jié)點(diǎn)的創(chuàng)建時間確定D、隨機(jī)生成9.在ZooKeeper中,關(guān)于節(jié)點(diǎn)的ACL(訪問控制列表)說法錯誤的是()。A、用于節(jié)點(diǎn)間的數(shù)據(jù)同步和一致性保證的協(xié)議D、取決于Watcher的設(shè)置A、節(jié)點(diǎn)名稱具有順序性D、節(jié)點(diǎn)的ACL具有順序性D、只能由Follower節(jié)點(diǎn)創(chuàng)建D、所有選項都正確A、領(lǐng)導(dǎo)者(Leader)D、所有角色均可17.在Sqoop中,使用哪個命令可以列出可用的數(shù)據(jù)庫連接?()18.在Sqoop中,哪個參數(shù)用于指定要導(dǎo)入的目標(biāo)表?()19.在Kafka中,()是ISR隊列中最小的LEO。20.在hive中下列哪個命令不可以實現(xiàn)去重()。22.在Hive中,以下哪個配置參數(shù)用于指定Hive執(zhí)行計劃的緩存23.在Hive中,以下哪個配置參數(shù)用于指定Hive元數(shù)據(jù)存儲的數(shù)據(jù)庫類型()?24.在Hive中,以下哪個配置參數(shù)用于指定Hive服務(wù)器的端口號25.在Hive中,以下哪個配置參數(shù)用于指定Hive的執(zhí)行引擎為Spark()?26.在Hive中,以下哪個配置參數(shù)用于指定Hive表的默認(rèn)存儲格27.在Hive中,以下哪個配置參數(shù)用于指定HiveCLI的歷史命令記錄文件名()?28.在Hive中,以下哪個配置參數(shù)用于指定HDFS的名稱節(jié)點(diǎn)地址()。29.在Hive中,哪個配置參數(shù)用于指定Hive的執(zhí)行模式,如本地30.在Hive中,哪個配置參數(shù)用于指定HiveCLI的歷史命令記錄31.在HDFS文件操作中,上傳文件的命令是()。33.在hadoop配置中core-site.xml的配置是()參數(shù)。34.在Flink中,水位線是()生成的。35.在Flink中,窗口(Window)的作用是()。A、控制數(shù)據(jù)流的速度B、對數(shù)據(jù)流進(jìn)行分組C、對數(shù)據(jù)流進(jìn)行時間切片D、對數(shù)據(jù)流進(jìn)行過濾36.在Flink中,()通常用于指定Flink作業(yè)的任務(wù)流圖(JobGraph)。B、job.conf37.在Flink的配置文件中,()通常用來指定Flink任務(wù)并行度。38.在Docker數(shù)據(jù)管理中,數(shù)據(jù)卷可以提供的特性不包括()。A、數(shù)據(jù)卷可以在容器之間共享和重用B、對數(shù)據(jù)卷內(nèi)數(shù)據(jù)的修改立馬生效C、對數(shù)據(jù)卷的更新不影響鏡像D、掛載數(shù)據(jù)卷時要手工創(chuàng)建掛載目錄39.在Docker的運(yùn)行過程中,對鏡像的操作不包括()。40.在Centos中啟動Docker服務(wù)的命令是()。41.在()版本后,Kafka正式移除了對Zookeeper的依賴。B、Kafka2.642.允許開發(fā)人員為容器分配MAC地址的是()。A、網(wǎng)橋網(wǎng)絡(luò)B、覆蓋網(wǎng)絡(luò)C、驅(qū)動網(wǎng)絡(luò)D、主機(jī)網(wǎng)絡(luò)43.以下選項中說法正確的是()。A、DAG是彈性分布式數(shù)據(jù)集的簡稱,是分布式內(nèi)存的一個抽象概念,提供了一種高度受限的共享內(nèi)存模型B、Application是運(yùn)行在工作節(jié)點(diǎn)的一個進(jìn)程,負(fù)責(zé)運(yùn)行TaskC、Job是運(yùn)行在Executor上的工作單元D、Stage是Job的基本調(diào)度單位,一個Job會分為多組Task,每組Task被稱為Stage44.以下選項哪個是MapReduce正確的運(yùn)行模型()。45.以下選項哪個是HDFS的名稱節(jié)點(diǎn)()。46.以下哪種不是Hive支持的數(shù)據(jù)類型()。47.以下哪個選項不是Sqoop的導(dǎo)入模式?()B、in/sqoopimport--connnameroot--delete-target-dir--target-dir/MysqlToHDFS1--taernameroot-delete-target-dir--target-dir/MysqITD、bin/sqoopimport--cernameroot-delete-target-dir--target-dir/Mysql49.以下哪個參數(shù)在sqoop命令中用于指定要刪除HDFS的目標(biāo)目50.以下關(guān)于Spark中的RDD的說法,錯誤的是()。A、RDD就是一個分布式對象集合,本質(zhì)上是一個只讀的分區(qū)記錄集合B、每個RDD可分成多個分區(qū),每個分區(qū)就是一個數(shù)據(jù)集片段C、RDD提供了一種高度共享內(nèi)存模型,RDD既可以讀,也可D、RDD的不同分區(qū)可以被保存到集群中不同的節(jié)點(diǎn)上,從而51.以下關(guān)于Spark計算框架,說法錯誤的是()。C、Spark提供了完整而強(qiáng)大的技術(shù)棧,包可運(yùn)行于AmazonEC2等云環(huán)境中52.以下關(guān)于RDD的寬依賴和窄依賴的說法錯誤的是()。A、窄依賴表現(xiàn)為子RDD的一個分區(qū)只依賴于某個(些)父RDD的一個分區(qū)C、寬依賴的RDD之間無Shuffle操作53.以下關(guān)于Hive操作描述不正確的是()。A、Hive是一個建立在hadoop文件系統(tǒng)上的數(shù)據(jù)倉庫架構(gòu),可B、Hive依賴于MapReduce處理數(shù)據(jù)54.以下對hive中表數(shù)據(jù)操作描述正確的是()。D、以上說法都不對55.以下()文件中主要用來配置ResourceManager,NodeManager56.要在Hive中啟用數(shù)據(jù)列級別的訪問控制(RBAC),應(yīng)該設(shè)置哪個配置參數(shù)()?57.要在Hive中啟用Kerberos認(rèn)證,應(yīng)該設(shè)置哪個配置參數(shù)()?58.消費(fèi)者出現(xiàn)活鎖問題時應(yīng)該()。A、增加erval.ms相關(guān)參數(shù)B、減少消費(fèi)者數(shù)量C、重啟集群59.下面中不屬于HIVE中的元數(shù)據(jù)信息()。A、表的名字B、表的列和分區(qū)及其屬性C、表的屬性(只存儲內(nèi)部表信息)D、表的數(shù)據(jù)所在目錄60.下面哪個命令是導(dǎo)入到集群()。61.下面哪個命令是創(chuàng)建hive表()。63.下面哪個程序負(fù)責(zé)HDFS數(shù)據(jù)存儲()。64.下面()端口不是Spark自帶服務(wù)的端口。65.下面()操作是窄依賴。66.下面()操作是寬依賴。67.下面()不是RDD的特點(diǎn)。C、可修改oop連接器進(jìn)行數(shù)據(jù)的導(dǎo)入導(dǎo)出操作69.下列選項中,針對Spark運(yùn)行的基本流程是錯誤是()。A、Driver端提交任務(wù),向Master申請資源C、Executor啟動會主動連接Driver,通過Driver->Master->WorkExecutor,從而得到Driver在哪D、river會產(chǎn)生Task,提交給Executor中啟動Task去做真正的計算70.下列說法錯誤的是()。A、生產(chǎn)者和消費(fèi)者面向的都是一個topicB、生產(chǎn)者發(fā)送數(shù)據(jù)的對象是leaderA、當(dāng)有新的消費(fèi)者加入消費(fèi)者組B、已有的消費(fèi)者推出消費(fèi)者組C、處于消費(fèi)者所在分區(qū)最近提交的offset位置D、消費(fèi)者所訂閱的主題的分區(qū)發(fā)生變化72.下列哪個數(shù)據(jù)類型不是hadoop的數(shù)據(jù)類型()。73.下列描述中,哪項不屬于Sqoop的缺點(diǎn)()。C、安全機(jī)制不夠完善D、connector必須符合JDBC模型74.下列關(guān)于topic和partition的描述,錯誤的是()。A、Kafka中消息是以partition進(jìn)行分類的C、每個partition對應(yīng)于一個log文件D、一個partition分為多個segment75.下列關(guān)于MapReduce說法不正確的是()。A、MapReduce是一種計算框架B、MapReduce來源于google的學(xué)術(shù)論文C、MapReduce程序只能用java語言編寫D、MapReduce隱藏了并行計算的細(xì)節(jié),方便使用76.下列關(guān)于leader和follower的說法正確的是()。A、一個topic的每個分區(qū)可以沒有l(wèi)eaderB、一個topic的每個分區(qū)可以沒有followerC、消費(fèi)者消費(fèi)數(shù)據(jù)的對象都是leaderD、follower從leader中同步數(shù)據(jù)有一定延遲77.下列方法中,不能創(chuàng)建RDD的方法是()。78.下列()不是RDD的緩存方法。79.下列()不是Docker項目中用于文件存儲的數(shù)據(jù)庫。80.下列()不可以作為SparkStreaming的輸入數(shù)據(jù)流。82.搜索nginx引擎的操作命令是()。84.使用消息隊列的好處不包括()。D、能夠同步通信85.使用Dockerrun命令運(yùn)行一個容器時,通過參數(shù)()可啟動一個bash允許用戶進(jìn)行交互。選項是()。選項是()。88.若要在Hive中啟用壓縮數(shù)據(jù)存儲,應(yīng)該設(shè)置哪個配置參數(shù)89.強(qiáng)制刪除容器tmp01的操作命令是()。90.啟動一個容器的操作命令是()。91.將一個已經(jīng)創(chuàng)建的容器導(dǎo)出到一個文件使用的操作命令是()。92.將一個RDD轉(zhuǎn)換為DataFrame的方法是()。93.將大數(shù)據(jù)平臺數(shù)據(jù)導(dǎo)出到mysql可以使用()工具。95.獲取遠(yuǎn)程倉庫中Docker鏡像的操作命令是()。96.關(guān)于ZooKeeper臨時節(jié)點(diǎn)的說法正確的是()。C、臨時節(jié)點(diǎn)不能手動刪除97.關(guān)于SparkStreaming的優(yōu)點(diǎn),不包括()。B、容錯性D、低吞吐量98.關(guān)于SparkSQL,以下說法正確的是()。C、HiveContext只支持SQL語法解析器D、SparkSQL的前身是Hive99.關(guān)于SparkSQL,以下描述錯誤的是()。A、SparkSQL使用的數(shù)據(jù)抽象并非是DataFrame,而是RDDC、DataFrame是一種以RDD為基礎(chǔ)的分D、ataFrame可以完成RDD的絕大多數(shù)功能100.關(guān)于SecondaryNameNode哪項是正確的?()B、它的目的是幫助NameNode合并編輯日志,減少NameNodeC、它對內(nèi)存沒有要求101.關(guān)于MapReduce優(yōu)點(diǎn),下列說法不正確的是()。A、高容錯性D、適合做實時計算102.關(guān)于MapReduce的說法正確的是()。C、MapReduce是分布式文件存儲系統(tǒng)D、MapReduce1.0既是一個計算框架又是一個資源調(diào)度框架103.關(guān)于Hive用戶自定義函數(shù)UDF的描述錯誤的是()。A、UDF(User-Defined-Function)一進(jìn)一出B、UDAF(User-DefinedAggregationFuncation)聚集函數(shù)C、UDTF(User-DefinedTable-GeneratingFunctions)一進(jìn)多出104.關(guān)于Hive數(shù)據(jù)傾斜問題描述正確的是()。C、小文件合并不會解決數(shù)據(jù)傾斜的問題D、可以適當(dāng)?shù)耐ㄟ^控制mapper和reducer來控制數(shù)據(jù)傾斜的問題105.關(guān)于Hive數(shù)據(jù)模型描述正確的是()。A、Hive的元數(shù)據(jù)存儲在HDFS中106.關(guān)于Hive內(nèi)外表描述正確的是()。A、內(nèi)部表數(shù)據(jù)由HDFS自身管理,外部表數(shù)據(jù)由Hive管理;置(默認(rèn):/user/hive/warehouse)C、外表存儲必須指定LOCATIOND、內(nèi)外表刪除時,都會刪除元數(shù)據(jù)和存儲107.關(guān)于Hive描述正確的是()。A、count函數(shù)必須開窗口才能使用108.關(guān)于Hive和傳統(tǒng)數(shù)據(jù)庫的比較描述正確的是()?A、Hive使用了查詢語言HQL(HiveQueryLanguage),HQL與SQL沒有任何關(guān)系B、Hive使用了查詢語言HQL(HiveQueryLanguage),HQL與SQL沒有任何關(guān)系C、Hive是建立在Hadoop之上的,所有Hive的數(shù)據(jù)都是存儲在109.關(guān)于Hive各個格式使用場景描述錯誤的是()。A、Parquet對于大型查詢的類型是高效的,對于掃描特定表格中的特定列的查詢,Parquet特別有用B、目前Parquet默認(rèn)使用gzip壓縮格式C、ORC可以支持復(fù)雜的數(shù)據(jù)結(jié)構(gòu)(比如Map等)D、RCFile是一種行列存儲相結(jié)合的存儲方式110.關(guān)于Hive的SequenceFile格式描述正確的是()。A、SequenceFile是二進(jìn)制文件格式,以list的形式序列化到文件中D、SequenceFile優(yōu)勢是文件和Hadoopapi中的MapFile是相互兼111.關(guān)于Hive存儲的文件格式描述錯誤的是()。A、ORC格式是Hive一直支持的B、TEXTFILE是Hive的默認(rèn)存儲格式C、SequenceFile是一種二進(jìn)制存儲112.關(guān)于Hive查詢通常延遲較高的原因描述錯誤的是()。A、由于沒有索引,需要掃描整個表,因此延遲較高D、Hive查詢延遲較于關(guān)系型數(shù)據(jù)庫,延遲響一直都是很高的A、HiveSQL的Parser層是為了將SQL轉(zhuǎn)化為執(zhí)行計劃的D、編譯器遍歷ASTTree,抽象出查詢的基本組成單元Operator114.關(guān)于Hivemetastore的三種模式的描述錯誤的是()。A、Derby方式是內(nèi)嵌的方式,也是默認(rèn)的啟動方式,一般用于B、local模式中,使用MySQL本地部署實現(xiàn)metastoreC、remote模式為遠(yuǎn)程MySQLD、erby方式在同一時間只能有多個進(jìn)程連接使用數(shù)據(jù)庫115.關(guān)于DStream窗口操作函數(shù),以下說法錯誤的是()。A、window()返回基于源DStream的窗口進(jìn)行批計算后的一個新的DstreamB、countByWindow()返回基于滑動窗口的DStream中的元素數(shù)C、reduceByWindow()做聚合操作并返回一個新的DstreamD、以上說法都不對116.關(guān)于Dataset,下列說法錯誤的是()。B、Dataset提供了特定域?qū)ο笾械娜躅愋图螩、Dataset結(jié)合了RDD和DataFrame的優(yōu)點(diǎn)D、ataset可以通過SparkSession中的createDataA、DataFrame可以看作是分布式的Row對象的集合,在二維表D、ataFrame提供了比RDD更豐富的算子118.關(guān)于DataFrame的優(yōu)勢,以下描述錯誤的是()。A、DataFrame提升了Spark框架的執(zhí)行效率B、DataFrame減少了數(shù)據(jù)讀取時間C、DataFrame可以優(yōu)化執(zhí)行計劃D、ataFrame可以完全替換RDD119.典型的NoSQL數(shù)據(jù)庫是()。120.當(dāng)之前下線的分區(qū)重新上線時,要執(zhí)行Leader選舉,選舉策略為()。A、OfflinePartitionLeaB、ReassignPartitionLeader選舉A、導(dǎo)出數(shù)據(jù)的目錄B、導(dǎo)入數(shù)據(jù)的目錄C、HDFS的目標(biāo)目錄D、S3的目標(biāo)目錄表的哪個位置?()A、文件的開頭B、文件的末尾C、新文件中D、隨機(jī)位置數(shù)用于指定使用多個mapper?()124.當(dāng)Kafka中日志片段大小達(dá)到()時,當(dāng)前日志片段會被關(guān)125.查看HDFS的報告命令是()。126.查看Docker鏡像信息的命令是()。127.查看Docker版本號的操作命令是()。128.ZooKeeper中的一致性協(xié)議ZAB是基于()算法實現(xiàn)。B、Raft算法C、Paxos算法D、3PC(Three-PhaseCommit)算法129.ZooKeeper中的一次寫操作是原子的嗎?()A、是,寫操作是原子的B、否,寫操作可能不是原子的C、取決于寫操作的類型130.ZooKeeper中的一次讀操作是原子的嗎?()A、是,讀操作是原子的B、否,讀操作可能不是原子的C、取決于讀操作的類型131.ZooKeeper中的數(shù)據(jù)模型是基于()。132.ZooKeeper中的節(jié)點(diǎn)可以設(shè)置()類型的觸發(fā)器。133.ZooKeeper使用的是()文件系統(tǒng)。136.Task運(yùn)行在下面()選項中Executor上的工作單元。137.Stage的Task的數(shù)量由()決定。據(jù)時正確處理字段?()139.Sqoop是一個用于在Hadoop和關(guān)系型數(shù)據(jù)庫之間進(jìn)行大規(guī)模數(shù)據(jù)遷移的工具,它屬于哪個Apache項目的一部分()140.Sqoop是Hadoop和關(guān)系數(shù)據(jù)庫服務(wù)器之間傳送數(shù)據(jù)的工具,下列哪種數(shù)據(jù)庫是不支持使用Sqoop直接進(jìn)行數(shù)據(jù)傳送()。141.Sqoop將導(dǎo)入或?qū)С雒罘g成什么程序來實現(xiàn)導(dǎo)入導(dǎo)出142.Sqoop的作用是()。A、用于傳統(tǒng)關(guān)系數(shù)據(jù)庫和Hadoop之間傳輸數(shù)據(jù)B、提供對日志數(shù)據(jù)進(jìn)行簡單處理的能力C、是Hadoop體系中數(shù)據(jù)存儲管理的基礎(chǔ)D、是一個建立在HDFS之上,面向列的針對結(jié)構(gòu)化和半結(jié)構(gòu)化數(shù)據(jù)和動態(tài)數(shù)據(jù)庫143.sqoop的組件功能是()。A、sqoop只能實現(xiàn)關(guān)系型數(shù)據(jù)庫向非關(guān)系型數(shù)據(jù)傳輸數(shù)據(jù)B、sqoop是關(guān)系型數(shù)據(jù)庫C、sqoop實現(xiàn)在關(guān)系型數(shù)據(jù)庫和非關(guān)系型數(shù)據(jù)庫之間時行數(shù)據(jù)D、sqoop是非關(guān)系型數(shù)據(jù)庫144.sqoop安裝完成后,查看sqoop版本的命令是()。145.Spark默認(rèn)的存儲級別是()。146.Spark采用RDD以后能夠?qū)崿F(xiàn)高效計算不是因為()。A、高效的容錯性,通過血緣關(guān)系重新計算丟失分區(qū)B、中間結(jié)果持久化到內(nèi)存,數(shù)據(jù)在內(nèi)存中的多個RDD操作之147.SparkStreaming中對DStream的轉(zhuǎn)換操作會轉(zhuǎn)變成對()的操148.SparkJob默認(rèn)的調(diào)度模式是()。D、運(yùn)行時指定149.MySQL數(shù)據(jù)庫驅(qū)動文件放置于hive哪個目錄下()。150.Linux下啟動HDFS的命令是()。151.Kafka最初是由哪家公司開發(fā)的?()152.Kafka是一種()。153.Kafka使用的是什么類型的消息傳遞模式?()154.Kafka服務(wù)器默認(rèn)能接收的最大消息是多大?()6D、沒有大小限制,因為支持大數(shù)據(jù)155.Kafka的主題分區(qū)數(shù)量可以根據(jù)什么進(jìn)行配置?()B、消費(fèi)者數(shù)量C、主題的重要性156.Kafka的消息以什么形式進(jìn)行存儲?()C、文檔157.Kafka的消息壓縮算法可以選擇的方式是()。D、所有以上158.Kafka的消息消費(fèi)可以使用哪種模式?()159.Kafka的消息是如何進(jìn)行順序?qū)懭氲?()A、順序?qū)懭氲酱疟PB、順序?qū)懭氲絻?nèi)存C、順序?qū)懭氲骄彺鍰、順序?qū)懭氲剿饕募?60.Kafka的消息傳遞語義是()。161.Kafka的消息傳遞保證是()。A、至少一次D、無保證162.Kafka的消息保留策略可以根據(jù)什么進(jìn)行配置?()163.Kafka的消費(fèi)者在處理消息時可以選擇的模式是(D、并行模式164.Kafka的消費(fèi)者可以以什么方式進(jìn)行消息偏移量的管理?()B、自動管理D、循環(huán)管理165.Kafka的核心是由哪個組件組成?()166.Kafka的高可用性是通過什么機(jī)制實現(xiàn)的?()D、數(shù)據(jù)緩存167.HMaster的主要作用是()。B、負(fù)責(zé)響應(yīng)用戶I/O請求,向HDFS文件系統(tǒng)讀寫數(shù)據(jù)D、最終保存HBase數(shù)據(jù)行的文件168.Hive中以下操作不正確的是()。169.Hive中分組的關(guān)鍵字是什么()?170.Hive中的自動分區(qū)是通過哪個配置參數(shù)啟用的()?171.Hive中的配置文件通常位于哪個目錄中()?172.Hive中的哪個配置參數(shù)用于指定Hive元數(shù)據(jù)存儲的連接UR173.Hive中的哪個配置參數(shù)用于指定Hive的臨時文件目錄()?174.Hive是由哪家公司開源的()。175.Hive是以()技術(shù)為基礎(chǔ)的數(shù)據(jù)倉庫。176.Hive是為了解決哪類問題()?A、海量結(jié)構(gòu)化日志的數(shù)據(jù)統(tǒng)計177.Hive默認(rèn)的元存儲是保存在內(nèi)嵌的()數(shù)據(jù)庫中。178.Hive的默認(rèn)元數(shù)據(jù)存儲是什么()?179.HBase依賴()技術(shù)框架提供消息通信機(jī)制。有()。臺計算機(jī)模擬多臺主機(jī)的集群是()模式。B、偽分布模式C、單機(jī)模式A、可以用JAVA語言編寫MapReduce應(yīng)用程序B、可以用C/C++語言編寫MapReduce應(yīng)用程序C、可以用Python語言編寫MapReduce應(yīng)用程序D、可以用javascript語言編寫MapReduce應(yīng)用程序183.hadoop2.0與hadoop1.0區(qū)別()。D、增加容錯機(jī)制184.Flume如何處理故障恢復(fù)?()185.Flume的源類型有哪些?()參考答案:C參考答案:D187.Flume的事件可以包含哪些屬性?()188.Flume的事件Body可以包含什么類型的數(shù)據(jù)?()化后的數(shù)據(jù)。C、Byte數(shù)組,字節(jié)流和自定義對象序列化后的數(shù)據(jù)。D、String和自定義對象序列化后的數(shù)據(jù)。參考答案:A195.Flume的哪個版本開始支持Avro作為數(shù)據(jù)傳輸格式?()A、1.X版本B、2.X版本C、3.X版本D、4.X版本以后196.Flume的哪個版本加入了對Thrift事件的的支持?()197.Flume的哪個版本加入了Kafka作為源和匯點(diǎn)?()B、2.X版本C、3.X版本D、4.X版本199.Flume的默認(rèn)Avro序列化方式是什么?()200.Flume的攔截器實現(xiàn)了哪個接口?()201.Flume的Source組件負(fù)責(zé)什么?()A、接收數(shù)據(jù)并將其寫入ChannelC、從數(shù)據(jù)源讀取數(shù)據(jù)并將其寫入ChannelD、從數(shù)據(jù)源讀取數(shù)據(jù)并將其寫入接收器202.Flume的Kafka源類型是什么?()203.Flume的Channel組件負(fù)責(zé)什么?()A、臨時存儲從Source組件接收的數(shù)據(jù)B、臨時存儲從下一組件接收的數(shù)據(jù)204.Flink最常用的編程語言是()。205.Flink中的轉(zhuǎn)換算子(TransformationOperator)通常用于()。A、計算作業(yè)的結(jié)果B、控制作業(yè)的執(zhí)行順序C、定義數(shù)據(jù)源A、事件發(fā)生的時間D、事件被記錄的時間D、任務(wù)的執(zhí)行順序208.Flink中的Watermark是用來(),幫助Flink正確地處理遲到的事件。D、控制數(shù)據(jù)流的大小209.Flink中的Checkpoints(檢查點(diǎn))主要用于()。C、執(zhí)行作業(yè)210.Flink支持的數(shù)據(jù)處理方式為()。D、無法確定211.Flink支持處理各種類型的數(shù)據(jù),包括()數(shù)據(jù)。A、結(jié)構(gòu)化B、半結(jié)構(gòu)化C、無結(jié)構(gòu)化212.Flink任務(wù)管理器(TaskManager)的作用是()。213.Flink的作業(yè)調(diào)度(JobScheduling)通常由()負(fù)責(zé)。214.Flink的作業(yè)提交通常需要()來管理作業(yè)的執(zhí)行。215.Flink的狀態(tài)管理用于(),以支持容錯性和狀態(tài)化的計算。D、執(zhí)行數(shù)據(jù)清洗216.Flink的主要特點(diǎn)是()。A、高吞吐量217.Flink的數(shù)據(jù)源可以是()。e)和處理時間(ProcessingTime)的區(qū)別是()。間間C、事件時間和處理時間是相同的D、事件時間和處理時間沒有明確的定義219.Flink的容錯機(jī)制是()工作的,它定期記錄數(shù)據(jù)流的狀態(tài),D、基于數(shù)據(jù)重播220.Flink的日志管理通常包括()這幾個方面。A、日志存儲和檢索C、日志分析和報警D、以上都是221.Flink的廣播狀態(tài)(BroadcastState)用于()。A、在所有任務(wù)之間共享狀態(tài)B、保持?jǐn)?shù)據(jù)流的連續(xù)性C、加速數(shù)據(jù)處理D、控制數(shù)據(jù)流速度是()。223.Flink的分布式部署需要的組件是()。224.Flink的窗口操作通常在()執(zhí)行,以對數(shù)據(jù)進(jìn)行分組、聚合A、數(shù)據(jù)產(chǎn)生時B、數(shù)據(jù)進(jìn)入Flink時C、數(shù)據(jù)在窗口中間時D、數(shù)據(jù)離開Flink時225.Flink的本地模式(LocalMode)和集群模式(ClusterMode)之間的主要區(qū)別是()。A、部署方式226.Flink的安裝配置中,通過()來指定外部依賴庫的路徑。227.Flink的安全性設(shè)置通常包括(),以確保只有授權(quán)用戶能夠B、作業(yè)調(diào)度和任務(wù)管理A、編寫Flink作業(yè)229.Flink的TableAPI和SQL用于()。D、數(shù)據(jù)清洗230.Flink的CEP(ComplexEventProcessing)庫用于(),幫助檢231.DStream的轉(zhuǎn)換操作方法中,()方法可以直接調(diào)用RDD上232.DStream的輸出操作,不包括()。233.Docker中的每一個工作都可以抽象為一個()。234.Docker運(yùn)行的核心模塊是()。A、*237.Docker內(nèi)置網(wǎng)絡(luò)模式不包括()。238.Docker的三大核心不包括()。239.Docker的()命令只支持將本地文件復(fù)制到容器中。240.Docker的()命令用于構(gòu)建鏡像。241.Dockerfile中指定環(huán)境變量的指令是()。242.Dockerfile中聲明鏡像內(nèi)服務(wù)監(jiān)聽的端口的指令是()。243.Dockerfile配置文件使用()命令指定基礎(chǔ)鏡像。244.Dataset最終在()版本中被定義成Spark新特性。245.DataFrame和RDD最大的區(qū)別是()。D、外部數(shù)據(jù)源支持246.ClusterManager是()。A、資源的分配和管理247.()參數(shù)不影響kafka重平衡?1.在使用Sqoop將數(shù)據(jù)從Hive導(dǎo)入到MySQL之前,需要確保以下條件已經(jīng)滿足()。A、已經(jīng)安裝了Hadoop集群和Hive數(shù)據(jù)庫B、已經(jīng)安裝了MySQL數(shù)據(jù)庫,并且可以連接到MySQL數(shù)據(jù)庫C、已經(jīng)安裝了Sqoop,并且可以在命令行中運(yùn)行Sqoop命令D、已經(jīng)安裝好JAVA式()。3.在Hive中,以下哪個配置屬性用于指定HDFS存儲位置的根目錄()。4.在Hive中,以下哪個配置屬性用于設(shè)置Hive表的默認(rèn)壓縮格式()。5.在Hive中,以下哪個配置屬性用于啟用動態(tài)分區(qū)()。6.與hadoop相比,Spark主要有()優(yōu)點(diǎn)。A、提供多種數(shù)據(jù)集操作類型而不僅限于MapRC、提供了內(nèi)存計算,帶來了更高的迭代運(yùn)算效率D、基于DAG的任務(wù)調(diào)度執(zhí)行機(jī)制+C:F7.以下是Spark中executor的作用是()。A、保存計算的RDD分區(qū)數(shù)據(jù)D、做資源調(diào)度任務(wù)8.以下哪些組件屬于Hadoop生態(tài)圈()。9.要在Hive中啟用LLAP(LowLatencyAnalyt配置屬性應(yīng)該設(shè)置為true()。10.要在Hive中配置HDFS的NameNodeURI,應(yīng)該設(shè)置哪個屬性11.要啟用Hive的壓縮功能,應(yīng)該配置哪個屬性()。12.要啟用Hive的Tez執(zhí)行引擎,應(yīng)該配置哪個屬性()。13.要配置Hive的元數(shù)據(jù)存儲用戶名,應(yīng)該設(shè)置哪個屬性()。14.要配置Hive的元數(shù)據(jù)存儲連接字符串,應(yīng)該設(shè)置哪個屬性()。15.下面是使用Sqoop將數(shù)據(jù)從Hive導(dǎo)入到MySQL的具體步驟B、插入數(shù)據(jù)D、在MySQL中查看數(shù)據(jù)16.下面哪些場景不是Flink擅長的()。B、迭代計算C、數(shù)據(jù)存儲D、流處理17.下面哪個配置屬性用于指定Hive查詢的最大并行度()。18.下面關(guān)于SparkMLlib庫的描述正確的是()。A、MLlib庫從1.2版本以后分為兩個包:spark.mllib和spark.mlB、spark.mllib包含基于DataFrame的原始算法APIC、spark.mllib包含基于RDD的原始算法APID、spark.ml則提供了基于RDD的、高層次的API19.下面關(guān)于Flink的說法正確的是()。A、Flink起源于Stratosphere項目,該項目是在2010年到2014年間由柏林工業(yè)大學(xué)、柏林洪堡大學(xué)和哈索普拉特納研究所聯(lián)合開D、Flink是Apache軟件基金會的5個最大的大數(shù)據(jù)項目之一20.下面關(guān)于Flink窗口描述錯誤的是()。A、滾動窗口在時間上是重疊的B、滾動窗口在時間上是不重疊的C、滑動窗口之間時間點(diǎn)存在重疊D、滑動窗口之間時間點(diǎn)不存在重疊21.下列有關(guān)ZooKeeper中的節(jié)點(diǎn)路徑說法正確的是()。23.下列選項()是ZooKeeper的應(yīng)用場景。C、分布式協(xié)調(diào)/通知24.下列屬于RDD的轉(zhuǎn)換算子的是()。25.下列關(guān)于容器操作命令匹配正確的有()。26.下列關(guān)于Docker的操作命令正確的有()。27.使用dockerstats命令可以顯示的容器信息有()。28.使用dockerps命令可以查看到的信息有()。A、容器IDB、鏡像名稱C、容器的端口D、生存時間E、環(huán)境變量29.如果要在Hive中啟用用戶定義的聚合函數(shù)(UDAFs),哪個配30.如果要在Hive中啟用事務(wù)支持,哪個配置屬性應(yīng)該設(shè)置為tr31.如果要在Hive中啟用列級別的權(quán)限控制,哪個配置屬性應(yīng)該設(shè)置為true()。32.啟動HDFS至少需要啟動()進(jìn)程。33.利用數(shù)據(jù)卷容器可以對其中的數(shù)據(jù)卷進(jìn)行()操作。34.后端容器化環(huán)境部署中使用的數(shù)據(jù)庫一般有()。35.管理自定義的網(wǎng)橋網(wǎng)絡(luò)的操作命令有()。36.關(guān)于ZooKeeper順序節(jié)點(diǎn)的說法不正確的是()。B、創(chuàng)建順序節(jié)點(diǎn)時不能連續(xù)執(zhí)行創(chuàng)建命令,否者報錯節(jié)點(diǎn)已存在C、通過順序節(jié)點(diǎn),可以創(chuàng)建分布式系統(tǒng)唯一IDD、順序節(jié)點(diǎn)的序號能無限增加37.關(guān)于ZooKeeper的特性說法正確的是()。知D、watch能觸發(fā)多次38.關(guān)于spark中數(shù)據(jù)傾斜引發(fā)原因正確的選A、key本身分布不均衡C、過多的數(shù)據(jù)在一個task里面39.關(guān)于spark容錯說法錯誤的有()。A、在容錯機(jī)制中,如果一個節(jié)點(diǎn)死機(jī)了,而且運(yùn)算窄依賴,則只要把丟失的父RDD分區(qū)重算即可,依賴于其他C、heckpoint可以節(jié)約大量的系B、每一個分區(qū)的命名是從序號0開始遞增C、每一個partition目錄下多個segment文件(包含xx.index,xx.log),默認(rèn)是1GD、每個分區(qū)里面的消息是有序的,數(shù)據(jù)是一樣的41.關(guān)于HadoopHDFS的文件操作,正確的是()。A、HDFS可以創(chuàng)建文件并寫入數(shù)據(jù)B、HDFS可以查看文件內(nèi)容D、HDFS可以更改文件內(nèi)容42.關(guān)于Flink的架構(gòu)表述正確的是()。D、ataSetAPI做批處理,而DataStreamAPI做流處理43.關(guān)于Docker容器的run命令,下列參數(shù)匹配正確的有()。44.關(guān)于dockerbuild命令支持的選項,下列匹配正確的有()。45.當(dāng)使用Sqoop進(jìn)行數(shù)據(jù)導(dǎo)出時,以下哪些()選項是正確的?A、Sqoop可以使用多個mapper同時進(jìn)行數(shù)據(jù)導(dǎo)出B、Sqoop導(dǎo)出的數(shù)據(jù)可以按照指定的列進(jìn)行排序C、Sqoop導(dǎo)出的數(shù)據(jù)可以插入到已存在的HDFS目錄中D、Sqoop導(dǎo)出的數(shù)據(jù)可以刪除已存在的HDFS目錄46.當(dāng)使用Sqoop將數(shù)據(jù)從MySQL導(dǎo)入到HDFS時,以下()參A、利用反射機(jī)制推斷RDD模式B、使用編程方式定義RDD模式C、利用投影機(jī)制推斷RDD模式D、利用互聯(lián)網(wǎng)機(jī)制推斷RDD模式48.創(chuàng)建鏡像的主要方法有()。49.查看Docker容器的子命令有()。50.ZooKeeper中的數(shù)據(jù)節(jié)點(diǎn)可以存儲的數(shù)據(jù)類型包括()。D、二進(jìn)制數(shù)據(jù)51.ZooKeeper中的事務(wù)操作可以保證()特性。A、原子性C、隔離性D、持久性52.ZooKeeper中的節(jié)點(diǎn)類型包括()。B、臨時節(jié)點(diǎn)C、有序節(jié)點(diǎn)D、臨時有序節(jié)點(diǎn)53.ZooKeeper中的Watcher機(jī)制是通過以下()方式實現(xiàn)。A、回調(diào)函數(shù)D、事件驅(qū)動54.ZooKeeper中的SEQUENTIAL節(jié)點(diǎn)的特點(diǎn)是()。B、無序節(jié)點(diǎn)C、節(jié)點(diǎn)名稱自動遞增D、節(jié)點(diǎn)名稱不自動遞增55.ZooKeeper中的ACL(AccessControlList)用于()。B、控制節(jié)點(diǎn)的讀寫權(quán)限C、kafka使用zookeeper來實現(xiàn)動態(tài)的集群擴(kuò)展D、發(fā)送到topic的數(shù)據(jù)需要經(jīng)過zookeeper57.ZooKeeper的集群中的Leader節(jié)點(diǎn)的選舉是通過以下()方式B、搶占式D、選舉算法58.Task運(yùn)行不在以下選項中Executor上的工作單元有()。59.Stage的Task的數(shù)量不是由()決定。60.Sqoop中哪些參數(shù)可以用于指定要導(dǎo)入/導(dǎo)出的表?()61.Sqoop中的--hive-drop-import-delims參數(shù)有什么作用?()A、在將數(shù)據(jù)從MySQL導(dǎo)入到Hive時,刪除MySQL中存在的D、在將數(shù)據(jù)從MySQL導(dǎo)入到Hive時,刪除Hive中存在的所有換行符62.Sqoop是一個用于在Hadoop和結(jié)構(gòu)化數(shù)據(jù)存儲(如關(guān)系型數(shù)據(jù)庫)之間傳輸數(shù)據(jù)的工具。以下哪些()是Sqoop的主要參數(shù)?63.Sqoop目前支持兩種增量導(dǎo)入模式,分別是()和()模式。包括()。A、加載loadD、執(zhí)行execution65.spark的特點(diǎn)包括()。C、可延伸D、兼容性A、文件流67.Sparkdriver的功能是()。A、作業(yè)的主進(jìn)程B、負(fù)責(zé)了作業(yè)的調(diào)度D、負(fù)責(zé)作業(yè)的解析68.SparkContext可以從()讀取數(shù)據(jù)。69.RDD有()缺陷。A、不支持細(xì)粒度的寫和更新操作(如網(wǎng)絡(luò)爬蟲)B、基于內(nèi)存的計算D、不支持增量迭代計算70.RDD的操作主要是()操作。A、轉(zhuǎn)換算子操作C、讀寫操作D、行動算子操作D、作為反向代理服務(wù)器73.Linux的特點(diǎn)是以下()方面。A、開放源代碼的程序軟件,可自由修改。74.Kafka相對傳統(tǒng)技術(shù)有什么優(yōu)勢說法正確的是6()。A、快速:單一的Kafka代理可以處理成千上萬的客戶端,每秒處理數(shù)兆字節(jié)的讀寫操作。失75.kafka容錯性說話正確的是()。A、允許集群中節(jié)點(diǎn)失敗(若副本數(shù)量為n,則允許n-1個節(jié)點(diǎn)失敗)B、殺死集群中的主節(jié)點(diǎn)還是可以使用C、殺死集群中所有的副節(jié)點(diǎn)還是可以使用D、無論結(jié)束的是主還是副broker,都不會影響kafka使用,只要還有一個副本76.Kafka負(fù)載均衡原理說法正確的是()。A、否producer根據(jù)用戶指定的算法,將消息發(fā)送到指定的partitB、存在多個partiton,每個partition有自己的replica,每個replica分布在不同的Broker節(jié)點(diǎn)上C、多個partition需要選取出leadpartition,leadpartition負(fù)責(zé)讀寫,D、通過zookeeper管理broker與consumer的動態(tài)加入與離開77.Kafka的消息傳遞可以使用的序列化器包括()。78.Kafka的消息傳遞可以保證消息的可靠性傳遞通過()。A、復(fù)制機(jī)制B、冗余機(jī)制D、容錯機(jī)制79.Kafka的消費(fèi)者可以以以下哪種方式進(jìn)行消息的并行處理?()81.Kafka的核心組件包括()。82.Hive中的數(shù)據(jù)類型包括哪些()。D、自定義數(shù)據(jù)類型83.Hive中的數(shù)據(jù)存儲如何分區(qū)()。84.Hive中的哪個組件負(fù)責(zé)將HQL語句翻譯成Tez或MapReduce任務(wù)()。85.Hive中的哪個組件負(fù)責(zé)將HQL語句翻譯成MapReduce任務(wù)86.Hive中的哪個配置屬性用于指定Hive表的默認(rèn)存儲格式()。87.Hive中的分區(qū)是如何定義的()。A、在表的創(chuàng)建時定義D、在表的插入操作中定義88.Hive中的Bucketing是什么()。D、一種數(shù)據(jù)存儲技術(shù)89.Hive支持哪種數(shù)據(jù)存儲格式()。90.Hive的數(shù)據(jù)存儲是如何組織的()。91.Hive的分區(qū)和桶的主要區(qū)別是什么()。C、分區(qū)是由HiveMetastore管理的,而桶是用戶自定義的D、分區(qū)和桶在Hive中沒有區(qū)別92.Hadoop集群的三大核心組件是()。93.Hadoop核心主要由()部分組成。94.Hadoop的運(yùn)行模式分為以下()種。B、偽分布模式C、全分布模式D、主備模式95.Hadoop的優(yōu)點(diǎn)有哪些()?A、擴(kuò)容能力強(qiáng)B、成本低C、速度快D、占用資源少96.HadoopHDFS自身的局限性包括()。A、不適合做低延遲、細(xì)粒度訪問B、無法高效存儲大量的小文件C、不支持多文件的寫入及任意修改文件D、無法實現(xiàn)數(shù)據(jù)的冗余備份存儲97.hadoopHA啟動后,以下哪些進(jìn)程運(yùn)行在master()?98.Flume可以與其他哪些大數(shù)據(jù)技術(shù)進(jìn)行集成?()99.Flume可以用于哪些類型的數(shù)據(jù)采集?()B、非結(jié)構(gòu)化數(shù)據(jù)C、日志數(shù)據(jù)100.Flume可以用于哪些方面的數(shù)據(jù)處理?()A、數(shù)據(jù)集中101.Flume可以應(yīng)用于哪些數(shù)據(jù)傳輸場景?()A、數(shù)據(jù)中心之間傳輸數(shù)據(jù)B、跨網(wǎng)絡(luò)傳輸數(shù)據(jù)C、日志數(shù)據(jù)傳輸102.Flume的攔截器支持哪些操作?()A、數(shù)據(jù)過濾103.Flume的攔截器可以完成哪些操作?()A、數(shù)據(jù)過濾104.Flume的可靠性機(jī)制包括哪些內(nèi)容?()D、數(shù)據(jù)順序保證105.Flume的核心組件有哪些?()有何特點(diǎn)?()A、可處理大文件C、可自動滾動文件108.Flink組件中流類型包括()。A、有界流B、無界流C、字符流D、文件流A、結(jié)束時間C、采集時間D、事件時間110.Flink支持的部署模式有()。111.Flink支持的Source包括()。A、自定義數(shù)據(jù)讀取C、從文件中讀取數(shù)據(jù)112.Flink整個系統(tǒng)包含()三個部分。113.Flink有哪些狀態(tài)存儲方式()。114.Flink是實時計算的代表技術(shù)之一,以下針對Flink表述正確的有()。A、Flink是構(gòu)建在數(shù)據(jù)流之上的一款有狀態(tài)計算框架B、Flink可對有限數(shù)據(jù)流和無限數(shù)據(jù)流進(jìn)行有狀態(tài)或無狀態(tài)的計算C、Flink無法對大規(guī)模的數(shù)據(jù)進(jìn)行快速計算D、Flink能夠部署在各種集群環(huán)境115.Flink流式處理的數(shù)據(jù)源類型包括()。116.Flink核心組成部分提供了面向()的接口。117.Flink的主要特性包括()。A、精確一次的狀態(tài)一致性保障D、事件時間支持A、滾動窗口B、滑動窗口C、定時窗口D、會話窗口A、YARN能夠作為Flink集群的資源調(diào)度管理器B、能夠與Hadoop原有的Mappers和Reduces混合使用C、能夠使用Hadoop的格式化輸入和輸出D、能夠從本地獲取數(shù)據(jù)A、可以使用戶在并行函數(shù)中很方便的讀取本地文件C、當(dāng)程序執(zhí)行時,F(xiàn)link自動將文件或目錄復(fù)制到所有TaskManager節(jié)點(diǎn)的本地文件系統(tǒng)D、用戶可以從TaskManager節(jié)點(diǎn)的本地文件系統(tǒng)訪問它121.Flink的核心組件包括()。122.Flink的編程模型包括哪幾層()。D、有狀態(tài)數(shù)據(jù)流處理123.Flink常見的應(yīng)用場景包括()。C、地圖應(yīng)用D、數(shù)據(jù)分析應(yīng)用124.Docker在開發(fā)和運(yùn)維過程中具有的優(yōu)勢有()。C、更輕松的遷移擴(kuò)展D、更簡單的更新管理要方式有()。A、映射所有接口地址B、映射到指定地址的指定端口126.Docker容器的重要操作有()。A、創(chuàng)建127.Docker容器的操作狀態(tài)有()。A、
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 二零二四全新酒店客房住宿服務(wù)居間服務(wù)合同下載6篇
- 2025年旋挖鉆機(jī)進(jìn)口代理與關(guān)稅結(jié)算合同范本3篇
- 二零二五年環(huán)衛(wèi)工作績效考核與獎勵合同模板3篇
- 2025年度園林景觀租賃合同范本4篇
- 個人婚慶策劃服務(wù)2024年度合同3篇
- 2023《廣東省建設(shè)工程消防設(shè)計審查疑難問題解析》
- 二零二五版城市排水管網(wǎng)安裝與改造服務(wù)合同2篇
- 二零二五版勞動合同分類體系與員工激勵制度3篇
- 二零二四年度三人科技研發(fā)項目合作協(xié)議3篇
- 二零二五年度物聯(lián)網(wǎng)平臺技術(shù)承包協(xié)議書3篇
- 稱量與天平培訓(xùn)試題及答案
- 超全的超濾與納濾概述、基本理論和應(yīng)用
- 2020年醫(yī)師定期考核試題與答案(公衛(wèi)專業(yè))
- 2022年中國育齡女性生殖健康研究報告
- 各種靜脈置管固定方法
- 消防報審驗收程序及表格
- 教育金規(guī)劃ppt課件
- 呼吸機(jī)波形分析及臨床應(yīng)用
- 常用緊固件選用指南
- 私人借款協(xié)議書新編整理版示范文本
- 自薦書(彩色封面)
評論
0/150
提交評論