Changes between Version 18 and Version 19 of jazz/Hadoop_Lab1
- Timestamp:
- Mar 23, 2009, 9:11:13 PM (16 years ago)
Legend:
- Unmodified
- Added
- Removed
- Modified
-
jazz/Hadoop_Lab1
v18 v19 1 1 [[PageOutline]] 2 2 3 = = 實作一: Hadoop 單機安裝 ==3 = 實作一: Hadoop 單機安裝 = 4 4 5 == = tar.gz 安裝法 ===5 == 前言 == 6 6 7 7 * 本實作基於 Ubuntu 8.04 LTS 版本,關於 Ubuntu 8.04 的安裝程序,請參考"[wiki:jazz/Hardy Ubuntu 8.04 Server 版安裝步驟]"。 8 * 本課程實作之電腦教室所提供的作業環境是 Ubuntu 8.04 Server 版加裝 xubuntu 桌面的環境 ,登入資訊請留意講師說明。8 * 本課程實作之電腦教室所提供的作業環境是 Ubuntu 8.04 Server 版加裝 xubuntu 桌面的環境。 9 9 * 本頁面的部分指令,是針對不熟悉 Linux 文字編輯器的使用者所設計的'懶人'設定法,您也可以使用習慣使用的文字編輯器(如:vi,nano,joe等)進行修改。 10 10 * 這個頁面,黑底白字的部分為指令,請自行剪貼提示符號 "$"(代表一般使用者) 或 "#"(代表最高權限 root 管理者) 之後的指令。 11 * 首先,由於 Sun Java Runtime 是執行 Hadoop 必備的工具,因此我們需要安裝 JRE 或 JDK。這裡我們直接安裝 JDK,因為後面寫程式仍舊需要用到 JDK 所提供的編譯器。目前 Ubuntu 8.04 提供的 JDK 套件最新版本為 Sun Java(TM) Development Kit (JDK) 6.06 ,套件名稱為 '''sun-java6-jdk'''。 11 12 * 登入資訊 13 14 || 使用者 || Hadooper|| 15 || 群組 || Hadoop || 16 || 密碼 || ****** || 17 18 * Hadooper 擁有sudoer 的權限 19 20 ----- 21 * 寫給我看的: 22 23 每台電腦都要增加此使用者 12 24 {{{ 13 ~$ sudo apt-get install sun-java6-jdk 25 $ sudo addgroup hadoop 26 $ sudo adduser --ingroup hadoop hadooper 27 }}} 28 測試不設定.bashrc 的java home有無關係 29 ------- 30 31 == step 1. 安裝java == 32 * 由於 Sun Java Runtime 是執行 Hadoop 必備的工具,因此我們需要安裝 JRE 或 JDK。這裡我們直接安裝 JDK,因為後面寫程式仍舊需要用到 JDK 所提供的編譯器。目前 Ubuntu 8.04 提供的 JDK 套件最新版本為 Sun Java(TM) Development Kit (JDK) 6.06 ,套件名稱為 '''sun-java6-jdk'''。並建議刪除原本的 「 gcj 」 。 33 34 {{{ 35 ~$ sudo apt-get purge java-gcj-compat 36 ~$ sudo apt-get install sun-java6-bin sun-java6-jdk sun-java6-jre 14 37 }}} 15 * 其次,請至國網中心 TWAREN 的鏡射站下載 Hadoop 0.18.3,並解開壓縮檔到 /opt 路徑。 38 39 == step 2. 設定登入免密碼 == 40 41 * 由於Hadoop用ssh 作機器間的溝通,因此先設定登入機器免密碼的設定, 42 43 {{{ 44 ~$ ssh-keygen -t rsa -f ~/.ssh/id_rsa -P "" 45 ~$ cp ~/.ssh/id_rsa.pub ~/.ssh/authorized_keys 46 }}} 47 48 完成後請登入確認不用輸入密碼,(第一次登入需按enter鍵,第二次就可以直接登入到系統),以免日後輸入密碼key到手軟 49 50 {{{ 51 ~$ ssh localhost 52 ~$ exit 53 ~$ ssh localhost 54 ~$ exit 55 }}} 56 57 == step 3. 下載安裝Hadoop == 58 * 請至國網中心 TWAREN 的鏡射站下載 Hadoop 0.18.3,並解開壓縮檔到 /opt 路徑。 16 59 {{{ 17 60 ~$ cd /opt … … 19 62 /opt$ sudo tar zxvf hadoop-0.18.3.tar.gz 20 63 /opt$ sudo mv hadoop-0.18.3/ hadoop 64 /opt$ sudo chown -R hadooper:hadoop hadoop 21 65 }}} 66 67 == step 4. 設定 hadoop-env.sh == 68 22 69 * 進入 hadoop 目錄,做進一步的設定。我們需要修改兩個檔案,第一個是 '''hadoop-env.sh''',需要設定 JAVA_HOME, HADOOP_HOME, HADOOP_CONF_DIR 三個環境變數。 70 23 71 {{{ 24 72 /opt$ cd hadoop/ 25 /opt/hadoop$ sudo su 26 /opt/hadoop# cat >> conf/hadoop-env.sh << EOF 73 /opt/hadoop$ cat >> conf/hadoop-env.sh << EOF 74 }}} 75 貼上以下資訊 76 {{{ 77 #!sh 27 78 export JAVA_HOME=/usr/lib/jvm/java-6-sun 28 79 export HADOOP_HOME=/opt/hadoop … … 30 81 EOF 31 82 }}} 83 84 == step 5. 設定 hadoop-site.xml == 85 32 86 * 第二個設定檔是 '''hadoop-site.xml''',由於官方所提供的範例並無法直接執行,因此我們參考[http://hadoop.apache.org/core/docs/r0.18.3/quickstart.html 線上文件],做了以下的修改。 87 33 88 {{{ 34 89 /opt/hadoop# cat > conf/hadoop-site.xml << EOF 90 }}} 91 92 貼上以下內容 93 94 {{{ 95 #!sh 35 96 <configuration> 36 97 <property> … … 54 115 EOF 55 116 }}} 56 * 以上我們已經設定好 Hadoop 單機測試的環境,接著讓我們來啟動 Hadoop 相關服務。首先需要先格式化 namenode,接著用 start-all.sh 來啟動所有服務,包含 namenode, datanode, secondarynamenode, tasktracker 117 118 == step 6. 格式化HDFS == 119 120 * 6. 以上我們已經設定好 Hadoop 單機測試的環境,接著讓我們來啟動 Hadoop 相關服務,格式化 namenode, secondarynamenode, tasktracker 57 121 {{{ 58 122 /opt/hadoop# bin/hadoop namenode -format 123 }}} 124 125 執行畫面如: 126 {{{ 127 128 09/03/23 20:19:47 INFO dfs.NameNode: STARTUP_MSG: 129 130 /************************************************************ 131 132 STARTUP_MSG: Starting NameNode 133 134 STARTUP_MSG: host = /localhost 135 136 STARTUP_MSG: args = [-format] 137 138 STARTUP_MSG: version = 0.18.3 139 140 STARTUP_MSG: build = https://svn.apache.org/repos/asf/hadoop/core/branches/branch-0.18 -r 736250; compiled by 'ndaley' on Thu Jan 22 23:12:08 UTC 2009 141 142 ************************************************************/ 143 144 09/03/23 20:19:47 INFO fs.FSNamesystem: fsOwner=hadooper,hadooper 145 146 09/03/23 20:19:47 INFO fs.FSNamesystem: supergroup=supergroup 147 148 09/03/23 20:19:47 INFO fs.FSNamesystem: isPermissionEnabled=true 149 150 09/03/23 20:19:47 INFO dfs.Storage: Image file of size 82 saved in 0 seconds. 151 152 09/03/23 20:19:47 INFO dfs.Storage: Storage directory /tmp/hadoop-hadooper/dfs/name has been successfully formatted. 153 154 09/03/23 20:19:47 INFO dfs.NameNode: SHUTDOWN_MSG: 155 156 /************************************************************ 157 158 SHUTDOWN_MSG: Shutting down NameNode at /localhost 159 160 ************************************************************/ 161 162 163 }}} 164 165 == step 7. 啟動Hadoop == 166 167 * 接著用 start-all.sh 來啟動所有服務,包含 namenode, datanode, 168 {{{ 59 169 /opt/hadoop# bin/start-all.sh 60 170 }}} 171 執行畫面如: 172 {{{ 173 starting namenode, logging to /opt/hadoop/logs/hadoop-hadooper-namenode-vPro.out 174 175 localhost: starting datanode, logging to /opt/hadoop/logs/hadoop-hadooper-datanode-vPro.out 176 177 localhost: starting secondarynamenode, logging to /opt/hadoop/logs/hadoop-hadooper-secondarynamenode-vPro.out 178 179 starting jobtracker, logging to /opt/hadoop/logs/hadoop-hadooper-jobtracker-vPro.out 180 }}} 181 182 == step 8. 完成!檢查運作狀態 == 183 61 184 * 啟動之後,可以檢查以下網址,來觀看服務是否正常。 62 185 * http://localhost:50030/ - Hadoop 管理介面 … … 67 190 * [[Image(hadoop_dfs_status.png)]] 68 191 69 === deb 套件一步安裝法 ===70 192