配置Spark
?
參考《深入理解Spark:核心思想與源碼分析》
Spark使用Scala進行編寫,而Scala又是基于JVM運行,所以需要先安裝JDK,這個不再贅述。
1.安裝Scala
安裝獲取Scala:
wget http://download.typesafe.com/scala/2.11.5/scala-2.11.5.tgz? 將下載的文件移動到自家想要放置的目錄。
修改壓縮文件的權限為755(所有者讀寫執行,同組成員讀和執行,其他成員讀和執行)
chmod 755 scala-2.11.5.tgz? 解壓縮:
tar -xzvf scala-2.11.5.tgz? 打開/etc/profile,添加scala的環境變量
vim /etc/profile?
查看scala是否安裝成功:
scala?
?2.安裝完scala后,就要安裝spark了
只接從網站上下載了spark安裝包:
http://spark.apache.org/downloads.html
將安裝包移動到自己指定的位置,解壓縮。
配置環境變量:
vim /etc/profile? 添加spark環境變量
使環境變量生效:
source /etc/profile? 進入spark的conf文件目錄,
cd /home/hadoop/spark/spark-2.1.0-bin-hadoop2.7/confcp spark-env.sh.template spark-env.sh? 在spark-env.sh目錄中添加java hadoop scala的環境變量
啟動spark:
cd /home/hadoop/spark/spark-2.1.0-bin-hadoop2.7/sbin./start-all.sh? 打開瀏覽器,輸入http://localhost:8080
可見Spark已經運行了。
http://blog.csdn.net/wuliu_forever/article/details/52605198這個博客寫的很好
轉載于:https://www.cnblogs.com/qj4d/p/7110972.html
總結
- 上一篇: 08_传智播客iOS视频教程_Found
- 下一篇: 【ECSHOP】格式化商品价格