加载Hadoop+spark镜像文件需要修改的配置文件
生活随笔
收集整理的這篇文章主要介紹了
加载Hadoop+spark镜像文件需要修改的配置文件
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
用虛擬機加載鏡像后需要做的調整工作;(1)分別查看三臺機器的IP地址ifconfig
(2)修改/etc/hosts文件中的IP地址
說明:修改完成后,進行測試:先ping其他主機再ssh其他主機
如果可以ping、ssh成功,則修改/etc/hosts成功。
【注解】此時hadoop已經修改配置成功,但是Spark還沒成功。
(3)修改三臺機器中的Spark的配置文件中的master的IP1.先進入${SPARK_HOME}/conf目錄2.再修改配置文件sudo gedit spark-env.sh中的IP地址【注解】此時Spark也修改成功。
總結
以上是生活随笔為你收集整理的加载Hadoop+spark镜像文件需要修改的配置文件的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 二、安装Spark集群
- 下一篇: 1.VMware Workstation