hadoop實驗報告可編輯范本_第1頁
hadoop實驗報告可編輯范本_第2頁
hadoop實驗報告可編輯范本_第3頁
hadoop實驗報告可編輯范本_第4頁
hadoop實驗報告可編輯范本_第5頁
已閱讀5頁,還剩4頁未讀 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

PAGEPAGE9基于hadoop的大規(guī)模文本處理技術(shù)實驗專業(yè)班級:軟件1102學生姓名:張國宇學號:201116040221SetupHadooponUbuntu11。0464—bit提示:前面的putty軟件安裝省略;直接進入JDK的安裝。1.InstallSunJDK<安裝JDK〉由于SunJDK在ubuntu的軟件中心中無法找到,我們必須使用外部的PPA。打開終端并且運行以下命令:sudoadd-apt—repositoryppa:ferramroberto/javasudoapt-getupdatesudoapt-getinstallsun-java6—binsudoapt-getinstallsun—java6—jdkAddJAVA_HOMEvariable<配置環(huán)境變量〉:先輸入粘貼下面文字:sudovi/etc/environment再將下面的文字輸入進去:按i鍵添加,esc鍵退出,X保存退出;如下圖:exportJAVA_HOME=”/usr/lib/jvm/java—6—sun-1.6.0。26"TestthesuccessofinstallationinTerminal〈在終端測試安裝是否成功〉:sudo./etc/environmentjava–version2.CheckSSHSetting〈檢查ssh的設(shè)置>sshlocalhost如果出現(xiàn)“connectionrefused”,你最好重新安裝ssh(如下命令可以安裝):sudoapt—getinstallopenssh-serveropenssh-client如果你沒有通行證ssh到主機,執(zhí)行下面的命令:ssh—keygen—tdsa-P’'-f~/.ssh/id_dsacat(yī)~/.ssh/id_dsa。pub>〉~/.ssh/authorized_keys3。SetupHadoop<安裝hadoop>安裝apache2sudoapt—getinstallapache2下載hadoop:sudowgethttp://apache。cs。utah.edu/hadoop/common/hadoop-1.0。4/hadoop-1。0.4.tar.gz解壓hadoop所下載的文件包:tarxvfzhadoop-1。0。4.tar.gz下載最近的一個穩(wěn)定版本,解壓。編輯/hadoop—env。sh定義java_home“use/library/java-6-sun-1。6。0.26"Sudoviconf/hadoop—env。sh將以下內(nèi)容加到文件最后:#Thejavaimplementationtouse。Required.exportJAVA_HOME=/usr/lib/jvm/java—6—sun-1.6。0.26Pseudo-DistributedOperation(Single—NodeCluster)<偽分布式操作(單節(jié)點集群)〉:將下面中間部分插入:(得到如圖:)catconf/core-site。xml:<configuration〉〈property〉〈name>fs.default.name〈/name><value〉hdfs://localhost:9000</value></property〉〈/configuration〉cat(yī)conf/hdfs—site。xml:<configuration>〈property><name〉dfs.replicat(yī)ion</name><value〉1</value></property></configuration>catconf/mapred-site。xml:<configuration〉〈property>〈name〉mapred。job.tracker〈/name><value>localhost:9001</value></property>〈/configuration〉Switchtohadooprootdirectoryandformatanewdistributedfilesystem〈轉(zhuǎn)向根目錄,格式化一個新的文件分布式系統(tǒng)〉:bin/hadoopnamenode–format注意:這一步一定不能掉,否則后面會出錯!You’llgetinfolike“Storagedirectory/tmp/hadoop—ubuntu/dfs/namehasbeensuccessfullyformat(yī)ted?!盧ememberthispathistheHDFShomedirectoryofnamenode。(你會得到提示:你已經(jīng)成功格式化.)Startandstophadoopdaemons(啟動和終止進程.):bin/start—all。sh(startthehadoop)bin/stop—all。sh(stopthehadoop)WebinterfacesfortheNameNodeandtheJobTracker:NameNode–HYPERLINK”http://localhost:50070/"http://localhost:50070/=〉http://[IPaddress|domainname]:50070提示:如果前面沒有格式化成功,這個網(wǎng)址會出現(xiàn)就不去的現(xiàn)象!!!如果進不去就先結(jié)束進程,重新格式化然后再開始進程。JobTracker–HYPERLINK”http://localhost:50030/”http://localhost:50030/=>http://[IPaddress|domainname]:500304。DeployAnExampleMap-ReduceJob<布置Ma-reduceJob的一個例子>創(chuàng)建路徑”/home/ubuntu/mapreduce/wordcount/”,并在該目錄下放置文本文件worldcount.txt。然后將這些文件復制到HDFS目錄:bin/hadoopdfs—copyFromLocal/home/ubuntu/mapreduce/wordcount/tmp/hadoop—ubuntu/dfs/name/wordcountbin/hadoopdfs—ls/tmp/hadoop-ubuntu/dfs/name/wordcountRunthejob:bin/hadoopjarhadoop*examples*。jarwordcount/tmp/hadoop—ubuntu/dfs/name/wordcount/tmp/hadoop-ubuntu/dfs/name/wordcount—outputIftheoutputinfolooksnoproblem,copytheoutputfilefromHDFStolocaldirectory<如果輸出信息看起來沒有問題,從HDFS輸出復制文件到本地目錄的:〉:bin/hadoopdfs—getmerge/tmp/hadoop-ubuntu/dfs/name/wordcount—output/home/ubuntu/mapreduce/wordcount/Nowyoucanopentheoutputfileinyourlocaldirectorytovie

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論