2017大數(shù)據(jù)面試題及答案_第1頁
2017大數(shù)據(jù)面試題及答案_第2頁
2017大數(shù)據(jù)面試題及答案_第3頁
2017大數(shù)據(jù)面試題及答案_第4頁
2017大數(shù)據(jù)面試題及答案_第5頁
已閱讀5頁,還剩3頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

經(jīng)典word整理文檔,僅參考,雙擊此處可刪除頁眉頁腳。本資料屬于網(wǎng)絡(luò)整理,如有侵權(quán),請聯(lián)系刪除,謝謝!2017大數(shù)據(jù)面試題及答案來源:扣丁學(xué)堂2017年有不少大數(shù)據(jù)學(xué)員學(xué)成準(zhǔn)備參加工作,在參加工作前最重要的一輪就是大數(shù)據(jù)的面試,小編收集了一些2017大數(shù)據(jù)面試題及答案,希望可以幫到準(zhǔn)備或者正在參加大數(shù)據(jù)面試的朋友們。1.下面哪個(gè)程序負(fù)責(zé)HDFS數(shù)據(jù)存儲(chǔ)。答案Cdatanodea)NameNodeb)Jobtrackerc)Datanoded)secondaryNameNodee)tasktracker2.HDfS中的block?答案A默認(rèn)3分a)3份b)2份c)1份d)不確定3.下列哪個(gè)程序通常與NameNode在一個(gè)節(jié)點(diǎn)啟動(dòng)?答案Da)SecondaryNameNodeb)DataNodec)TaskTrackerd)Jobtracker此題分析:hadoop的集群是基于master/slavenamenode和jobtracker屬于master,datanode和tasktracker屬于slavemaster只有一個(gè),而slave有多個(gè)SecondaryNameNode內(nèi)存需求和NameNode在一個(gè)數(shù)量級(jí)上,所以通常secondaryNameNode(運(yùn)行在單獨(dú)的物理機(jī)器上)和NameNode運(yùn)行在不同的機(jī)器上。JobTracker和TaskTrackerJobTracker對應(yīng)于NameNodeTaskTracker對應(yīng)于DataNodeDataNode和NameNode是針對數(shù)據(jù)存放來而言的JobTracker和TaskTracker是對于MapReduce執(zhí)行而言的mapreduce中幾個(gè)主要概念,mapreduce整體上可以分為這么幾條執(zhí)行線索:obclient,JobTracker與TaskTracker。1JobClient會(huì)在用戶端通過JobClient類將應(yīng)用已經(jīng)配置參數(shù)打包成jar文件存儲(chǔ)到hdfs徑提交到Jobtracker,然后由JobTracker創(chuàng)建每一個(gè)Task(即MapTask和ReduceTask)并將它們分發(fā)到各個(gè)TaskTracker服務(wù)中去執(zhí)行。2JobTracker是一個(gè)masterJobTracker接收J(rèn)obJob的每一個(gè)子任務(wù)task運(yùn)行于TaskTracker上,并監(jiān)控它們,如果發(fā)現(xiàn)有失敗的task就重新運(yùn)行它。一般情況應(yīng)該把JobTracker部署在單獨(dú)的機(jī)器上。3、TaskTracker是運(yùn)行在多個(gè)節(jié)點(diǎn)上的slaverTaskTracker主動(dòng)與JobTracker通信,接收作業(yè),并負(fù)責(zé)直接執(zhí)行每一個(gè)任務(wù)。TaskTracker都需要運(yùn)行在HDFS的DataNode上。4.Hadoop答案CDougcuttinga)MartinFowlerb)KentBeckc)Dougcutting5.HDFS默認(rèn)BlockSize答案:Ba)32MBb)64MBc)128MB(因?yàn)榘姹靖鼡Q較快,這里答案只供參考)6.下列哪項(xiàng)通常是集群的最主要瓶頸:答案:C磁盤a)CPUb)網(wǎng)絡(luò)c)磁盤IOd)內(nèi)存該題解析:pc?1.cpu處理能力強(qiáng)2.內(nèi)存夠大所以集群的瓶頸不可能是a和d3.網(wǎng)絡(luò)是一種稀缺資源,但是并不是瓶頸。4.由于大數(shù)據(jù)面臨海量數(shù)據(jù),讀寫數(shù)據(jù)都需要io,然后還要冗余數(shù)據(jù),hadoop一般備3份數(shù)據(jù),所以IO就會(huì)打折扣。7.關(guān)于SecondaryNameNode?答案Ca)它是NameNode的熱備b)它對內(nèi)存沒有要求c)它的目的是幫助NameNode合并編輯日志,減少NameNode啟動(dòng)時(shí)間d)SecondaryNameNode應(yīng)與NameNode部署到一個(gè)節(jié)點(diǎn)。多選題:8.下列哪項(xiàng)可以作為集群的管理?答案:ABDa)Puppetb)Pdshc)ClouderaManagerd)Zookeeper9.配置機(jī)架感知的下面哪項(xiàng)正確:答案ABCa)如果一個(gè)機(jī)架出問題,不會(huì)影響數(shù)據(jù)讀寫b)寫入數(shù)據(jù)的時(shí)候會(huì)寫到不同機(jī)架的DataNode中c)MapReduce會(huì)根據(jù)機(jī)架獲取離自己比較近的網(wǎng)絡(luò)數(shù)據(jù)10.Client端上傳文件的時(shí)候下列哪項(xiàng)正確?答案Ba)數(shù)據(jù)經(jīng)過NameNode傳遞給DataNodeb)Client端將文件切分為Block,依次上傳c)Client只上傳數(shù)據(jù)到一臺(tái)DataNode,然后由NameNode負(fù)責(zé)Block復(fù)制工作該題分析:Client向NameNode發(fā)起文件寫入的請求。NameNode根據(jù)文件大小和文件塊配置情況,返回給Client它所管理部分DataNode的信息。Client將文件劃分為多個(gè)Block,根據(jù)DataNode的地址信息,按順序?qū)懭氲矫恳粋€(gè)DataNode塊中。11.下列哪個(gè)是Hadoop運(yùn)行的模式:答案ABCa)單機(jī)版b)偽分布式c)分布式12.Cloudera提供哪幾種安裝CDH?答案:ABCDa)Clouderamanagerb)Tarballc)Yumd)Rpm判斷題:13.Ganglia不僅可以進(jìn)行監(jiān)控,也可以進(jìn)行告警。(正確)分析:此題的目的是考Ganglia的了解。嚴(yán)格意義上來講是正確。ganglia作為一款最常用的Linux環(huán)境中的監(jiān)控軟件,它擅長的的是從節(jié)點(diǎn)中按照用戶的需求以較低的代價(jià)采集數(shù)據(jù)。但是ganglia在預(yù)警以及發(fā)生事件后通知用戶上并不擅長。最新的ganglia已經(jīng)有了部分這方面的功能。但是更擅長做警告的還有NagiosNagios,就是一款精于預(yù)警、通知的軟件。通過將Ganglia和Nagios組合起來,把Ganglia采集的數(shù)據(jù)作為Nagios的數(shù)據(jù)源,然后利用Nagios來發(fā)送預(yù)警通知,可以完美的實(shí)現(xiàn)一整套監(jiān)控管理的系統(tǒng)。14.BlockSize是不可以修改的。(錯(cuò)誤)分析:它是可以被修改的Hadoop的基礎(chǔ)配置文件是hadoop-default.xml,默認(rèn)建立一個(gè)Job的時(shí)候會(huì)建立Job的ConfigConfig首先讀入hadoop-default.xml的配置,然后再讀入hadoop-site.xml的配置(這個(gè)文件初始的時(shí)候配置為空)hadoop-site.xml中主要配置需要覆蓋的hadoop-default.xml的系統(tǒng)級(jí)配置。15.Nagios不可以監(jiān)控Hadoop集群,因?yàn)樗惶峁〩adoop(錯(cuò)誤)分析:Nagios是集群監(jiān)控工具,而且是云計(jì)算三大利器之一16.如果NameNodeSecondaryNameNode會(huì)接替它使集群繼續(xù)工作。(錯(cuò)誤)分析:SecondaryNameNode是幫助恢復(fù),而不是替代,如何恢復(fù),可以查看.17.ClouderaCDH是需要付費(fèi)使用的。(錯(cuò)誤)分析:第一套付費(fèi)產(chǎn)品是ClouderaEnterpris,ClouderaEnterprise在美國加州舉行的Hadoop大會(huì)(HadoopSummit)上公開,以若干私有管理、監(jiān)控、運(yùn)作工具加強(qiáng)Hadoop的功能。收費(fèi)采取合約訂購方式,價(jià)格隨用的Hadoop叢集大小變動(dòng)。18.Hadoop是Java開發(fā)的,所以MapReduce只支持Java語言編寫。()分析:rhadoop是用R語言開發(fā)的,MapReduce是一個(gè)框架,可以理解是一種思想,可以使用其他語言開發(fā)。19.Hadoop支持?jǐn)?shù)據(jù)的隨機(jī)讀寫。(錯(cuò))分析:lucene是支持隨機(jī)讀寫的,而hdfs只支持隨機(jī)讀。但是HBaseHBase提供隨機(jī)讀Hadoop不能處理的問題。HBase有數(shù)十億個(gè)數(shù)據(jù)行;也可以很“寬”,有數(shù)百萬個(gè)列;水平分區(qū)并在上千個(gè)普通商用機(jī)節(jié)點(diǎn)上自動(dòng)復(fù)制。表的模式是物理存儲(chǔ)的直接反映,使系統(tǒng)有可能提高高效的數(shù)據(jù)結(jié)構(gòu)的序列化、存儲(chǔ)和檢索。20.NameNode負(fù)責(zé)管理metadataclient端每次讀寫請求,它都會(huì)從磁盤中讀取或則會(huì)寫入metadata信息并反饋client端。(錯(cuò)誤)此題分析:NameNode不需要從磁盤讀取metadata,所有數(shù)據(jù)都在內(nèi)存中,硬盤上的只是序列化的結(jié)果,只有每次namenode啟動(dòng)的時(shí)候才會(huì)讀取。1)文件寫入Client向NameNode發(fā)起文件寫入的請求。NameNode根據(jù)文件大小和文件塊配置情況,返回給Client它所管理部分DataNode的信息。Client將文件劃分為多個(gè)Block,根據(jù)DataNode的地址信息,按順序?qū)懭氲矫恳粋€(gè)DataNode塊中。2)文件讀取Client向NameNode發(fā)起文件讀取的請求。21.NameNode本地磁盤保存了Block的位置信息。(個(gè)人認(rèn)為正確,歡迎提出其它意見)分析:DataNodeBlockBlock的Meta-data,同時(shí)周期性地將所有存在的Block信息發(fā)送給NameNode。NameNode返回文件存儲(chǔ)的DataNode的信息。Client讀取文件信息。22.DataNode通過長連接與NameNode保持通信。()這個(gè)有分歧:具體正在找這方面的有利資料。下面提供資料可參考。首先明確一下概念:(1).長連接Client方與Server方先建立通訊連接,連接建立后不斷開,然后再進(jìn)行報(bào)文發(fā)送和接收。這種方式下由于通訊連接一直存在,此種方式常用于點(diǎn)對點(diǎn)通訊。(2).短連接Client方與Server每進(jìn)行一次報(bào)文收發(fā)交易時(shí)才進(jìn)行通訊連接,交易完畢后立即斷開連接。此種方式常用于一點(diǎn)對多點(diǎn)通訊,比如多個(gè)Client連接一個(gè)Server.23.Hadoop自身具有嚴(yán)格的權(quán)限管理和安全措施保障集群正常運(yùn)行。(錯(cuò)誤)分析:hadoop只能阻止好人犯錯(cuò),但是不能阻止壞人干壞事24.Slave節(jié)點(diǎn)要存儲(chǔ)數(shù)據(jù),所以它的磁盤越大越好。(錯(cuò)誤)分析:一旦Slave節(jié)點(diǎn)宕機(jī),數(shù)據(jù)恢復(fù)是一個(gè)難題25.hadoopdfsadmin–report命令用于檢測HDFS(錯(cuò)誤)26.Hadoop默認(rèn)調(diào)度器策略為FIFO(正確)27.集群內(nèi)每個(gè)節(jié)點(diǎn)都應(yīng)該配RAID,這樣避免單磁盤損壞,影響整個(gè)節(jié)點(diǎn)運(yùn)行。(錯(cuò)誤)分析:首先明白什么是RAID,可以參考百科磁盤陣列。這句話錯(cuò)誤的地方在于太絕對,具體情況具體分析。題目不是重點(diǎn),知識(shí)才是最重要的。因?yàn)閔adoop本身就具有冗余能力,所以如果不是很嚴(yán)格不需要都配備RAID。具體參考第二題。28.因?yàn)镠DFS有多個(gè)副本,所以NameNode是不存在單點(diǎn)問題的。(錯(cuò)誤)29.每個(gè)map槽就是一個(gè)線程。(錯(cuò)誤)分析:首先我們知道什么是map,map槽->mapslotmapslot只是一個(gè)邏輯值(org.apache.hadoop.mapred.TaskTracker.TaskLauncher.numFreeSlots),而不是對應(yīng)著一個(gè)線程或者進(jìn)程30.Mapreduce的inputsplit就是一個(gè)block。()31.NameNode的WebUI端口是50030,它通過jetty啟動(dòng)的Web(錯(cuò)誤)32.Hadoop環(huán)境變量中的HADOOP_HEAPSIZE用于設(shè)置所有Hadoop守護(hù)線程的內(nèi)存。它默認(rèn)是200GB。()分析:hadoop為各個(gè)守護(hù)進(jìn)程(namenode,secondarynamenode,jobtracker,datanode,tasktracker)統(tǒng)一分配的內(nèi)存在hadoop-env.sh中設(shè)

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論