大數(shù)據(jù)開發(fā)框架實驗步驟16spark安裝_第1頁
大數(shù)據(jù)開發(fā)框架實驗步驟16spark安裝_第2頁
大數(shù)據(jù)開發(fā)框架實驗步驟16spark安裝_第3頁
大數(shù)據(jù)開發(fā)框架實驗步驟16spark安裝_第4頁
大數(shù)據(jù)開發(fā)框架實驗步驟16spark安裝_第5頁
已閱讀5頁,還剩9頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

Spark可以獨立安裝使用,也可以和Hadoop一起安裝使用。本中,我們采用和Hadoop一起安裝使用,這SparkHDFShadoopspark-2.1.0-bin-without-hadoop版本。Spark部署模式主要有四種:Local模式(單機模式、Standalone模式(Spark自帶的簡單集群管理器YARN模式(使用YARN作為集群管理器)和Mesos模式(Mesos作為集群管理器。Local模式(單機模式)的Spark安裝。exportexportSPARK_DIST_CLASSPATH=$(hadoop 。清屏spark命令窗口:輸入:quitSparkSparkPi:run-examplepi6、spark 下測試(1)(2)本地文spark val 啟動時自動創(chuàng)建一個SparkContext對象,名字為sc,命令中可直接使用。(datas2是文件另存 , 自動建立,如果已存在會報異常(4)hdfs文hdfs (5)valwordCount=textFile.flatMap(line=>line.split("")).map(word=>(word,1)).reduceByKey((a,=>a+b)“)Lamdaline.split,也就是針對line中的一行文本內容,采用空格作為分隔符進行單詞切分,從一行文本切分得到很多個單詞構成的單詞集合。這樣,對于textFile中的每行文本,都會使用Lamda表達式得到一個單詞集合,最終,多行文本,就得到1次。reduceByKey((abab)RDD元素按照key7sparkmavensbt,ideeclipseidea。scala/javawindow下安裝開發(fā)環(huán)境(eclipseforscala),linuxmavenjar包。(2)并解壓scala-SDK-4.7.0-vfinal-2.12-win32.win32.x86_64.zip,運行解壓下的scalaide。java-installedjre(jrehomejdk解壓,并將解 作為maven工 maven-usersettingssettings.xmlmavensettings.xmld:/maven/repojardsettings.xmlmavenapplyiii)scala-installationsaddscala(scala-解壓,選擇解 下lib作為 ,并為自己的scala命名ApplyandcloseAddArchetypeArchetypeGroupidnet.alchim31.maven,第二ArchetypeArtifactidscala-archetype-simple,version1.6,點擊OK,等待完成。在Catalog里選擇它nextGroupidsdauArtifactwordCount,packageide library。運 下。刪 下的類將工程紅叉消除工程下pom.xml用網盤中的替換,然后等待pom.xml指定的庫(時間比較長ScalaObject):packageimportorg.apache.spark.SparkContextimportorg.apache.spark.SparkContext._importorg.apache.spark.SparkConfobjectWordCountdefmain(args:Array[String])//varinputFile="hdfs://hadoop100:9000/wc1.txt"varinputFile="file:///home/hadoop/data/file1.txt"valconf=newSparkConf().setAppName("WordCount")valsc=newSparkContext(conf)valtextFile=valwordCount=textFile.flatMap(line=>line.split("")).map(word=>(word,1)).reduceByKey((a,b)=>a+b)}}(10)打包:右擊工程下pom.xml-runasmavenbuild…-在框的goals中填寫runconsole --class 。hdfspackageimportorg.apache.spark.SparkContextimportorg.apache.spark.SparkContext._importorg.apache.spark.SparkConfobjectWordCountdefmain(args:Array[String])varinputFile="hdfs://VM-24-6-//varinputFile="file:///home/hadoop/data/file1.txt"valconf=newSparkConf().setAppName("WordCount")valsc=newSparkContext(conf)valtextFile=valwordCount=textFile.flatMap(line=>line.split("")).map(word=>(word,1)).reduceByKey((a,b)=>a+b)}}inputFile路徑,VM-24-6-centospackageimportimportimportimportimportimportorg.apache.spark.sql.Dataset;importorg.apache.spark.sql.Row;importorg.apache.spark.sql.SQLContext;importpublicclassSparkSqlTestpublicstatic implementsSerializableprivatestaticfinallongserialVersionUID= privateStringprivateint (Stringname,intage)=this.age=}publicStringtoString()returnname+":"+}publicStringgetName()return}publicvoidsetName(Stringname)=}publicintgetAge()return}publicvoidsetAge(intage)this.age=}}publicstaticvoidmain(String[]args){SparkConfconf=newJavaSparkContextsc=newJavaSparkContext(conf);SparkSessionspark=JavaRDD<String>input=sc.parallelize(Arrays.asList("abc,1",JavaRDD<>s=input.map(s->s.split(",")).map(s->(s[0],//[abc:1,test:2]Dataset<Row>df=spark.createDataFrame( *+---+----+|age|name|+---+----+|1|abc||2|test|+--- *root|--age:integer(nullable=false)|--name:string(nulla

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論