hadoop培訓(xùn)1高級(jí)開發(fā)實(shí)戰(zhàn)_第1頁
hadoop培訓(xùn)1高級(jí)開發(fā)實(shí)戰(zhàn)_第2頁
hadoop培訓(xùn)1高級(jí)開發(fā)實(shí)戰(zhàn)_第3頁
hadoop培訓(xùn)1高級(jí)開發(fā)實(shí)戰(zhàn)_第4頁
hadoop培訓(xùn)1高級(jí)開發(fā)實(shí)戰(zhàn)_第5頁
已閱讀5頁,還剩41頁未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

目前流行什么 +大數(shù)Hadoop1.0 Hadoop1.0HDFS分布SecondaryNameNode根據(jù)過editslogHadoop2.0Hadoop2.0新特性:NameNodeHadoop2.0HA Hadoop2.0新特性:通過 HadoopNFSv3實(shí)現(xiàn)方

NFS允許用戶像本地文件系統(tǒng) 通過引入一個(gè)NFSgateway服務(wù)實(shí),該服務(wù)能將NFS協(xié)議轉(zhuǎn)換 協(xié)unnameduser(fileunnamedgroup(filenamednamed權(quán)限掩碼,用于過濾nameduser和namedgroup的權(quán)限MapReduceMapReduceMapReduceMapReduce

(2)assign

local

getmap

(onlocaldisks)

MapReduceMapReduceReduceMapper抽象1、protectedvoidsetup(Context2、protectedvoidmap(KEYINkey,VALUEINContextcontext)throwsIOException,InterruptedException{context.write((KEYOUT)key,(VALUEOUT)}3、protectedvoidcleanup(Context)throwsIOException,InterruptedException//}4、publicvoidrun(Contextcontext)throwsIOException,InterruptedException{while(context.nextKeyValue())}Reducer抽象1protectedvoidsetup(Context)throwsIOException,InterruptedException}2、protectedvoidreduce(KEYINkey, ble<VALUEIN>values,Context)throwsIOException,InterruptedException{for(VALUEINvalue:values){context.write((KEYOUT)key,(VALUEOUT)}}3、protectedvoidcleanup(Context)throwsIOException,InterruptedException}4、publicvoidrun(ContextcontextthrowsIOExceptionInterruptedExceptionwhile(context.nextKey())}} 文件輸入格式Defaultformat;readsoftextThebyteoffsetofTheParseslinesintokey-valEverythinguptothefirsttabcharacterofthelineAHadoop-specifichigh-performancebinaryformat輸入數(shù)據(jù)分塊輸入數(shù)據(jù)分塊InputSplit定義了輸入到單個(gè)任務(wù)的輸入數(shù)一個(gè)MapReduce程序被統(tǒng)稱InputSplit將文件分為64MB數(shù)據(jù)記錄讀入 讀入一個(gè)文本行數(shù)據(jù)記合并相同key的鍵值對(duì),減少partitioner時(shí)候的數(shù)據(jù)通信開是在本地執(zhí)行的一個(gè)Reducer,滿足一定的條件才能夠執(zhí)行Partitioner&Partitioner&,用來決定一個(gè)給定(key,value)對(duì)傳給哪個(gè)節(jié)

傳輸?shù)矫恳粋€(gè)Reducer節(jié)點(diǎn)上新版本的編程接口是文件輸出格式 個(gè)號(hào)(partitionid) Default;writeslinesin"key\tvalue"WritesbinaryfilessuitableforreadingsubsequentMapReduceDisregardsitsHadoopStreaming介 運(yùn)行一個(gè)MapReduce運(yùn)行一個(gè)MapReduceStreamingcattest.log|wcfs-三、運(yùn)行/bin/hadoopjarcontrib/streaming/hadoop-streaming--mappercat-reducer'wc-- /data/test.log-outputHadoopMRhadoops MapReduce案例實(shí) Hadoop1.0的局限-Hadoop1.0的局限-擴(kuò)展可用

map-reducejob非常多的時(shí)候,會(huì)造成很大的內(nèi)存開銷,潛在來說,也增加了JobTrackerfail的風(fēng)險(xiǎn),這也是業(yè)界普遍總結(jié)出老Hadoop的Map-Reduce只能支持4000節(jié)點(diǎn)主機(jī)的上限。存在單點(diǎn)故障,一旦故障,批處理模低效的資源管把資源強(qiáng)制劃分為maptaskslot和reducetaskslot,有maptask或者只有reducetask的時(shí)候,會(huì)造成資源的浪費(fèi)Hadoop2.0新特性:YARN

YARNHadoop2.0啟動(dòng) 處理來自 Hadoop2.0新特性:YARN-1.0資源調(diào)概概念:SlotHadoop1.0采用了靜態(tài)資源設(shè)置策略,即每個(gè)節(jié)點(diǎn)實(shí)現(xiàn)配Hadoop1.0將slot分為Mapslot和Reduceslot兩種,不允許共沒引入有效的資源機(jī)制,采用了基于jvm的資源機(jī)Hadoop2.0新特性:YARN的資源概概念:Container,實(shí)現(xiàn)資源動(dòng)態(tài)管理Hadoop2.0新特性:YARN的資源可

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論