正确地启动hadoop
 -----------------------環境-----------------------
 ubuntu16.04系統 64位
 apache-hive-3.0.0-bin ? ? ? ? ?
 spark-2.3.1-bin-hadoop2.7
scala2.11
JDK版本:jdk1.8.0_131
 hadoop-3.0.3 ? ? ??
 筆記本y460 ? ? ? ? ? ?
 ------------------------查看hostname------------------------
 (python2.7) appleyuchi@ubuntu:~$ hostname
 ubuntu
--------------------hosts配置----------------------------
 /etc/hosts中注意hostname不要和127.0.0.1綁定
 219.223.207.228 ubuntu
 127.0.0.1 ? localhost
為什么這么搞呢?因為這樣可以在一臺機子上模仿兩個節點(也就是兩個ip)之間的協作.
 -----------------關掉防火墻--------------------------------
 root@ubuntu:/home/appleyuchi# ufw status
 Status: inactive
 -----------------------啟動進程是否完整--------------------------
啟動hdfs.sh以后輸入jps看下是否有以下進程,很多時候,namenode容易起不來
 (python2.7) appleyuchi@ubuntu:~/bigdata/hadoop-3.0.3/sbin$ jps
 8739 NameNode
 22822 ResourceManager
 9256 Jps
 22936 NodeManager
 9081 SecondaryNameNode
 8861 DataNode
---------------------core-site.xml配置---------------------------------
 所在路徑:~/bigdata/hadoop-3.0.3/etc/hadoop
 -----------------------hdfs-site.xml配置------------------------------
 所在路徑:~/bigdata/hadoop-3.0.3/etc/hadoop
 ------------------------------
 如果啟動不起來
按照如下過程操作:(參考:https://www.cnblogs.com/lishpei/p/6136043.html)
 執行 NameNode 的格式化(這里我個人理解哈,格式化的時候是會損毀現有數據的,所以格式化前數據備份好):
 hadoop@hadoop:/usr/local/hadoop$ ./bin/hdfs namenode -format
先關閉之前的dfs進程
 hadoop@hadoop:/usr/local/hadoop$ ./sbin/stop-dfs.sh
 啟動NameNode 和 DataNode 守護進程。
 hadoop@hadoop:/usr/local/hadoop$ ./sbin/start-dfs.sh
-----------------------最終效果-------------------------------------
(python2.7) appleyuchi@ubuntu:~/bigdata/hadoop-3.0.3/sbin$ jps 8739 NameNode 22822 ResourceManager 9256 Jps 22936 NodeManager 9081 SecondaryNameNode 8861 DataNode另外,此時瀏覽器的地址欄輸入以下地址就可以打開了
 http://ubuntu:50090 ? ? ? ? ? ? ?這個是和hdfs-site.xml的內容對應的
 http://localhost:9000 ? ? ? ? ? ?這個是和core-site.xml的內容對應的
 此時hive也可以順利啟動了
總結
以上是生活随笔為你收集整理的正确地启动hadoop的全部內容,希望文章能夠幫你解決所遇到的問題。
 
                            
                        - 上一篇: sqoop2操作流程
- 下一篇: ubuntu16.04下面用sublim
