Hadoop的学习前奏(一)——在Linux上安装与配置Hadoop
前言
? 筆者目前是在做Android開發,又是在一個信息安全的公司。公司的主要是做在虛擬機上運行的產品,又涉獵云計算,心想是要去搞一下云計算。自我感覺移動互聯網 + 云計算 + 信息安全會是一個很好的方向,于是投身其中。因為是Java出身,所以自然而然選擇了Hadoop。
筆者系統環境
Linux: ?CentOS release 6.5 (Final)
JDK: ? ?java version "1.7.0_75"
? ? ? ? OpenJDK Runtime Environment (rhel-2.5.4.0.el6_6-x86_64 u75-b13)
? ? ? ? OpenJDK 64-Bit Server VM (build 24.75-b04, mixed mode)
SSH: ? ?OpenSSH_5.3p1, OpenSSL 1.0.1e-fips 11 Feb 2013
Hadoop: hadoop-1.2.1
環境搭建
1.安裝JDK
? 關于JDK的安裝,不是本博客的討論范圍,大家可以自行百度或是Google進行安裝。
2.配置SSH免密碼登錄
? 在你的機器可以聯網的前提下進行如下操作
? (1) # yum install openssh-server # 安裝SSH
? (2) #?yum -y install openssh-clients
? ? ? # 如果你安裝SSh完成之后,運行ssh出現系統無法識別ssh的話,需要另外安裝openssh-clients
? (3) # mkdir -p ~/.ssh # 如果你在安裝完SSH后,這些目錄都未自動生成,請自行創建
? (4) # ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa
? ? ? ssh-keygen 表示生成密鑰
? ? ? -t 表示指定生成的密鑰類型
? ? ? dsa 是dsa密鑰認證的意思,即密鑰類型
? ? ? -P 提供密語
? ? ? -f 指定生成的密鑰文件
? (5) # cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys
? ? ? # 將公鑰加到用于認證的公鑰文件中,authorized_keys是用于認證的公鑰文件
? (6) # ssh -version
? ? ? # 驗證SSH是否安裝完成,正確安裝會有類似如下的結果:
? ? ??
? (7)至此基本的配置已經差不多了,不過還是不能夠進行免密碼登錄。最后一步就是要配置兩個東西的權限屬性:
? ? ?$?chmod 700 ~/.ssh
? ? ?$ chmod 600 ~/.ssh/authorized_keys
? ? ?這兩步是必要的,不然你可能就不能免密碼登錄了。
? (8)$ ssh localhost # 驗證
3.安裝并運行Hadoop
? (1)下載hadoop-x.x.x
? ? ?解壓到指定目錄,例如/home/u
? (2)修改配置文件的配置信息
? ? ? # vim ~/hadoop-1.2.1/conf/core-site.xml
? ? ??
? ? ??# vim ~/hadoop-1.2.1/conf/hdfs-site.xml
? ? ??
? ? ??# vim ~/hadoop-1.2.1/conf/mapred-site.xml
? ? ??
? (3) #?~/hadoop-1.2.1/bin/hadoop namenode -format # 格式化文件系統
? (4) #?~/hadoop-1.2.1/bin/start-all.sh # 啟動所有進程
? (5)驗證Hadoop是否安裝成功
? ? ?進入瀏覽器,分別輸入以下網址進行驗證:
? ? ?http://localhost:50030 (MapReduce的Web頁面)
? ? ?http://localhost:50070 (HDFS的Web頁面)
? ? ?驗證示例:
? ? ?MapReduce的Web頁面
? ? ?
? ? ?HDFS的Web頁面
? ? ?
遇到的問題
1.啟動Hadoop時,總是說JAVA_HOME未配置
??
? 當我使用教程中的shell命令在hadoop文件夾中執行bin/start-all.sh時,老是報JAVA_HOME is not set.
? 可是我在shell里也設置了JAVA_HOME了啊,而且我去查看系統中的JAVA_HOME也是OK的,如下:
??
? 這一點讓我很是奇怪,如是我找到一篇論壇,里面的情況和我的有一些類似,不過他的一句話讓我察覺到自己的搞錯了一個地方,那就是上面提示的JAVA_HOME其實是要在配置文件中去設置的。
? 運行vim ~/hadoop-1.2.1/conf/hadoop-env.sh,這個目錄請根據自己你的路徑來寫,修改如下:
??
2.-bash: bin/hadoop: Permission denied
這里如果你是在Linux下直接從網絡上下載的話,應該會沒什么事情。不過,如果你跟筆者一樣,是使用WinSCP上傳到Linux上的話,這里可以會有一個小地方需要修改。不然會報這樣一個錯誤:
??
? 可以看到這個錯誤是在我們執行hadoop這個可執行文件時報的錯誤,那我們就只要對這個文件進行權限的修改就可以了。因為后面的還會用到一些其他的可執行文件,那么這里我就對所有的文件都做了一個可執行權限的修改(當然,這里是因為我們是在學習和測試階段,為了避免麻煩,偷了個懶。如果要從安全的角度來考慮,這里我們是不能這樣做的)。
3.Hadoop SafeMode: ON - HDFS unavailable
? 當然我們把之前的一些配置信息都搞了的時候,這時可能還會有一個問題,就是我們HDFS的Web頁面無法訪問。
??
? 這個問題其實是我們之前的一些錯誤配置遺留下來的問題。我們之前說過一個執行文件的權限問題,我們在操作格式化HDFS時,這個正是這個權限的問題在干擾。如是我把之前啟動的進程都stop掉。然后重新format就OK了。
? 格式化HDFS正確時的提示信息如下:
??
總結
以上是生活随笔為你收集整理的Hadoop的学习前奏(一)——在Linux上安装与配置Hadoop的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: Android SnackBar:你值得
- 下一篇: Python的捕虫笔记