Changes between Initial Version and Version 1 of NCHCCloudCourse100802/Lab5


Ignore:
Timestamp:
Aug 8, 2010, 11:40:30 AM (14 years ago)
Author:
jazz
Comment:

--

Legend:

Unmodified
Added
Removed
Modified
  • NCHCCloudCourse100802/Lab5

    v1 v1  
     1{{{
     2#!html
     3<div style="text-align: center;"><big
     4 style="font-weight: bold;"><big><big>實作五: Hadoop 叢集安裝</big></big></big><br/><big>Lab 5 : Hadoop Installation: Fully Distributed Mode<big></big></big></div>
     5}}}
     6[[PageOutline]]
     7
     8== 前言 ==
     9
     10 * 您手邊有兩台電腦,假設剛剛操作的電腦為"主機一" ,另一台則為"主機二" 。則稍後的環境如下
     11 
     12 || || '''管理Data的身份''' || '''管理Job的身份''' ||
     13 || '''"主機一" ''' || namenode + datanode || jobtracker + tasktracker||
     14 || '''"主機二" ''' || datanode|| tasktracker ||
     15 
     16 * 這個實做會架設運作在叢集環境上的Hadoop,因此若是你的電腦還存在著之前的實做一的環境,請先作step 0,以移除掉之前的設定。
     17
     18 * 確認您"主機一"的 hostname 與 "主機二" 的 hostname,並將下面指令有 主機一與主機二 的地方作正確的取代
     19
     20 * 維持好習慣,請幫你待會要操作的主機設root密碼
     21{{{
     22~$ sudo passwd
     23}}}
     24
     25=== 清除所有在實做一作過的環境 ===
     26
     27 * 在 "主機一"  (有操作過 實做一 的電腦)上操作
     28{{{
     29~$ cd ~
     30~$ /opt/hadoop/bin/stop-all.sh
     31~$ rm -rf /var/hadoop
     32~$ sudo rm -rf /opt/hadoop
     33~$ rm -rf ~/.ssh
     34}}}
     35 == step 0. 設定機器的ip & hostname 資訊 ==
     36
     37
     38
     39 == step 1. 設定兩台機器登入免密碼 ==
     40
     41 * 請注意我們實驗環境已經把 /etc/ssh/ssh_config裡的StrictHostKeyChecking改成no,下面的指令可以檢查,如果你的設定不同的話,請修改此檔會比較順。
     42{{{
     43$ cat /etc/ssh/ssh_config |grep StrictHostKeyChecking
     44StrictHostKeyChecking no
     45}}}
     46
     47 * 在"主機一" 上操作
     48 * 接著將key產生並複製到其他node上
     49{{{
     50~$ ssh-keygen -t rsa -f ~/.ssh/id_rsa -P ""
     51~$ cp ~/.ssh/id_rsa.pub ~/.ssh/authorized_keys
     52~$ scp -r ~/.ssh 主機二:~/
     53}}}
     54 * 測試看看是否登入免密碼
     55{{{
     56~$ ssh 主機二
     57~$ ssh 主機一
     58~$ exit
     59~$ exit
     60~$
     61}}}
     62
     63 * 完成後請登入確認不用輸入密碼,(第一次登入需按 yes ,第二次就可以直接登入到系統),以免日後輸入密碼不隻手軟而已....
     64
     65 == step 2. 安裝java ==
     66
     67 * 為兩台電腦安裝java
     68   * "主機一"  & "主機二"  都要操作以下指令
     69{{{
     70~$ sudo apt-get purge java-gcj-compat
     71~$ sudo apt-get install sun-java6-bin  sun-java6-jdk sun-java6-jre
     72~$ ssh 主機二
     73~$ sudo apt-get purge java-gcj-compat
     74~$ sudo apt-get install sun-java6-bin  sun-java6-jdk sun-java6-jre
     75~$ exit
     76}}}
     77   
     78
     79 == step 3. 下載安裝Hadoop到"主機一"  ==
     80
     81 * 先在"主機一" 上安裝,其他node的安裝等設定好之後在一起作
     82
     83{{{
     84~$ cd /opt
     85/opt$ sudo wget http://ftp.twaren.net/Unix/Web/apache/hadoop/core/hadoop-0.20.2/hadoop-0.20.2.tar.gz
     86/opt$ sudo tar zxvf hadoop-0.20.2.tar.gz
     87/opt$ sudo mv hadoop-0.20.2/ hadoop
     88/opt$ sudo chown -R hadooper:hadooper hadoop
     89/opt$ sudo mkdir /var/hadoop
     90/opt$ sudo chown -R hadooper:hadooper /var/hadoop
     91}}}
     92
     93 == step 4. 設定 hadoop-env.sh ==
     94 
     95 * "主機一" 上用gedit 編輯 conf/hadoop-env.sh
     96
     97{{{
     98/opt$ cd hadoop/
     99/opt/hadoop$ gedit conf/hadoop-env.sh
     100}}}
     101
     102 將以下資訊貼入 conf/hadoop-env.sh 檔內
     103
     104{{{
     105#!sh
     106export JAVA_HOME=/usr/lib/jvm/java-6-sun
     107export HADOOP_HOME=/opt/hadoop
     108export HADOOP_CONF_DIR=/opt/hadoop/conf
     109export HADOOP_LOG_DIR=/tmp/hadoop/logs
     110export HADOOP_PID_DIR=/tmp/hadoop/pids
     111}}}
     112   * 注意,在此實做中,我們多設定了HADOOP_PID_DIR及HADOOP_LOG_DIR的參數,並且把值寫入到我們hadooper的家目錄中,此舉並非完全必要,但一個目的是介紹更多hadoop-env.sh內的參數,另一目的為讓log,pid等常變資料與hadoop家目錄分離
     113 
     114 == step 5. 設定 hadoop-site.xml ==
     115 
     116 * 第二個設定檔是 '''hadoop-site.xml''',由於官方所提供的範例並無法直接執行,因此我們參考[http://hadoop.apache.org/core/docs/r0.20.2/quickstart.html 線上文件],做了以下的修改。
     117 
     118{{{
     119/opt/hadoop# gedit conf/core-site.xml
     120}}}
     121
     122 將以下資料取代掉原本的內容
     123
     124{{{
     125#!sh
     126<configuration>
     127  <property>
     128    <name>fs.default.name</name>
     129    <value>hdfs://主機一:9000</value>
     130  </property>
     131  <property>
     132    <name>hadoop.tmp.dir</name>
     133    <value>/var/hadoop/hadoop-${user.name}</value>
     134  </property>
     135</configuration>
     136
     137}}}
     138
     139{{{
     140/opt/hadoop# gedit conf/hdfs-site.xml
     141}}}
     142
     143 將以下資料取代掉原本的內容
     144
     145{{{
     146#!sh
     147<configuration>
     148  <property>
     149    <name>dfs.replication</name>
     150    <value>2</value>
     151  </property>
     152</configuration>
     153
     154}}}
     155
     156{{{
     157/opt/hadoop# gedit conf/mapred-site.xml
     158}}}
     159
     160 將以下資料取代掉原本的內容
     161
     162{{{
     163#!sh
     164<configuration>
     165  <property>
     166    <name>mapred.job.tracker</name>
     167    <value>主機一:9001</value>
     168  </property>
     169</configuration>
     170
     171}}}
     172
     173   * 注意!fs.default.name = hdfs://主機一:9000/ ;而mapred.job.tracker = 主機一:9001,看出差異了嗎!一個有指hdfs://,一個沒有,重要!易混淆。
     174   
     175 == step 6. 設定masters及slaves ==
     176 
     177 * 接著我們要編輯哪個主機當namenode, 若有其他主機則為datanodes
     178   * 編輯 conf/slaves
     179{{{
     180/opt/hadoop$ gedit conf/slaves
     181}}}
     182 原本內容只有localhost一行,請刪除此行並換上"主機一" 及"主機二" 的ip
     183{{{
     184#!sh
     185主機一
     186主機二
     187}}}
     188
     189== step 7. Hadoop_Home內的資料複製到其他主機上 ==
     190
     191 * 在"主機一" 上對遠端"主機二" 作開資料夾/opt/hadoop及權限設定
     192{{{
     193/opt/hadoop$ ssh 主機二 "sudo mkdir /opt/hadoop"
     194/opt/hadoop$ ssh 主機二 "sudo chown -R hadooper:hadooper /opt/hadoop"
     195/opt/hadoop$ ssh 主機二 "sudo mkdir /var/hadoop"
     196/opt/hadoop$ ssh 主機二 "sudo chown -R hadooper:hadooper /var/hadoop"
     197}}}
     198
     199 * 複製"主機一" 的hadoop資料夾到"主機二" 上
     200{{{
     201/opt/hadoop$ scp -r /opt/hadoop/* 主機二:/opt/hadoop/
     202}}}
     203
     204== step 8. 格式化HDFS ==
     205
     206
     207 * 以上我們已經安裝及設定好 Hadoop 的叢集環境,接著讓我們來啟動 Hadoop ,首先還是先格式化hdfs,在"主機一"  上操作
     208 
     209{{{
     210/opt/hadoop$ bin/hadoop namenode -format
     211}}}
     212
     213執行畫面如:
     214{{{
     21509/03/23 20:19:47 INFO dfs.NameNode: STARTUP_MSG:
     216/************************************************************
     217STARTUP_MSG: Starting NameNode
     218STARTUP_MSG:   host = 主機一
     219STARTUP_MSG:   args = [-format]
     220
     221
     222STARTUP_MSG:   version = 0.20.2
     223STARTUP_MSG:   build = https://svn.apache.org/repos/asf/hadoop/core/branches/branch-0.18 -r 736250; compiled by 'ndaley' on Thu Jan 22 23:12:08 UTC 2009
     224************************************************************/
     22509/03/23 20:19:47 INFO fs.FSNamesystem: fsOwner=hadooper,hadooper
     22609/03/23 20:19:47 INFO fs.FSNamesystem: supergroup=supergroup
     22709/03/23 20:19:47 INFO fs.FSNamesystem: isPermissionEnabled=true
     22809/03/23 20:19:47 INFO dfs.Storage: Image file of size 82 saved in 0 seconds.
     22909/03/23 20:19:47 INFO dfs.Storage: Storage directory /tmp/hadoop/hadoop-hadooper/dfs/name has been successfully formatted.
     23009/03/23 20:19:47 INFO dfs.NameNode: SHUTDOWN_MSG:
     231/************************************************************
     232SHUTDOWN_MSG: Shutting down NameNode at 主機一
     233************************************************************/
     234}}}
     235
     236== step 9. 啟動Hadoop ==
     237
     238 * bin/start-dfs.sh腳本會參照namenode上${HADOOP_CONF_DIR}/slaves文件的內容,在所有列出的slave上啟動datanode。
     239 
     240   * 在"主機一" 上,執行下面的命令啟動HDFS:
     241   
     242{{{
     243/opt/hadoop$ bin/start-dfs.sh
     244}}}
     245
     246
     247------
     248   * http://主機一:50070/ - Hadoop DFS 狀態
     249   * [[Image(wiki:0428Hadoop_Lab3:datanode.png)]]
     250------
     251   
     252   * ps: 然而JobTracker還沒啟動,因此 http://主機一:50030/ 網頁無法顯示
     253
     254 * bin/start-mapred.sh腳本會參照jobtracker上${HADOOP_CONF_DIR}/slaves文件的內容,在所有列出的slave上啟動tasktracker。
     255
     256   * 在"主機一"執行下面的命令啟動Map/Reduce:
     257   
     258{{{
     259/opt/hadoop$ /opt/hadoop/bin/start-mapred.sh
     260}}}
     261
     262 * 啟動之後, jobtracker也正常運作囉!
     263------
     264   * http://主機一:50030/ - Hadoop 管理介面
     265   * [[Image(wiki:0428Hadoop_Lab3:job.png)]]
     266------
     267
     268== step 10. 停止hadoop ==
     269
     270 * 在"主機一" 上,執行下面的命令停止HDFS:
     271{{{
     272/opt/hadoop$ bin/stop-dfs.sh
     273}}}
     274   * bin/stop-dfs.sh腳本會參照namenode上${HADOOP_CONF_DIR}/slaves文件的內容,在所有列出的slave上停止namenode
     275
     276 * 在"主機一" 上,執行下面的命令停止Map/Reduce:
     277{{{
     278/opt/hadoop$ bin/stop-mapred.sh
     279}}}
     280   * bin/stop-mapred.sh腳本會參照jobtracker上${HADOOP_CONF_DIR}/slaves文件的內容,在所有列出的slave上停止tasktracker。
     281
     282== 練習 ==
     283 * 看 conf/hadoop-default.xml 的更多內容
     284 * 和別人組隊,組成4台node的cluster,其中"主機一"  只當 namenode ,"主機二"  只當 jobtracker,而node3, node4 兩台電腦則身兼 datanode及tasktracker的工作。