| 1 | hadoop jps 開發 |
| 2 | |
| 3 | = 說明 = |
| 4 | |
| 5 | 開發出一個 hadoop all view 的網頁於 50000 port |
| 6 | |
| 7 | = 修改 = |
| 8 | |
| 9 | * 用 svn co 方式將hadoop 0.18 專案抓下來 |
| 10 | |
| 11 | * 將 src/webapps/ 內的dfs、job 的jsp檔都複製到 src/webapps/all |
| 12 | |
| 13 | * 修改 src/webapps/all/index.html |
| 14 | |
| 15 | * 將 src/mapred/org/apache/hadoop/mapred/ 複製到 src/core/org/apache/hadoop/all |
| 16 | |
| 17 | * 將 src/hdfs/org/apache/hadoop/dfs 複製到 src/core/org/apache/hadoop/all |
| 18 | |
| 19 | * 由於 all 內的java 檔 package, import 都是原本的mapred或dfs,因此要更正成 all這個資料夾 |
| 20 | {{{ |
| 21 | find ./ -name "*.java" | xargs sed -i 's/org.apache.hadoop.mapred/org.apache.hadoop.all/g' |
| 22 | }}} |
| 23 | |
| 24 | * 修改 taskrunner.java |
| 25 | {{{ |
| 26 | String[] ulimitCmd = Shell.getAllUlimitMemoryCommand(conf); |
| 27 | }}} |
| 28 | |
| 29 | * 修改 org.apache.hadoop.util 的 Shell.java ,增加一個 getAllUlimitMemoryCommand 方法,方法內容複製 getUlimitMemoryCommand |
| 30 | {{{ |
| 31 | public static String[] getAllUlimitMemoryCommand(org.apache.hadoop.all.JobConf job) { |
| 32 | }}} |
| 33 | |
| 34 | * 修改 build.xml內,加入all的 jsp-compile的資訊,以及其他相關內容。如 |
| 35 | {{{ |
| 36 | <jsp-compile |
| 37 | uriroot="${src.webapps}/all" |
| 38 | outputdir="${build.src}" |
| 39 | package="org.apache.hadoop.all" |
| 40 | webxml="${build.webapps}/all/WEB-INF/web.xml"> |
| 41 | </jsp-compile> |
| 42 | }}} |
| 43 | |
| 44 | * 在 conf/hadoop-default.xml 內 添加 all.http.server 為 50000 |
| 45 | |
| 46 | |
| 47 | |
| 48 | * 修改 all 資料夾內 http.server 成 all.http.server |
| 49 | |
| 50 | = 目前 = |
| 51 | * ant tar 可以正確編譯完成,不過卻沒有在localhost 開 50000 port |
| 52 | |
| 53 | * 修改 src/core/org/apache/hadoop/all 的 StatusHttpServer |