實作一: Streaming 操作練習 on Standalone Mode
前言
- 本實作基於 Ubuntu 10.04 LTS 版本(Lucid)。
- 黑底白字的部分為指令或console秀出的畫面,請自行剪貼提示符號 "$"(代表一般使用者) 或 "#"(代表最高權限 root 管理者) 之後的指令。如:
/home/DIR$ Copy_Command From To ...
則複製 Copy_Command From To ... 這個指令,貼到你的console來執行。(/home/DIR 代表目前所在的目錄路徑) - 白底黑字的部分為文件內的內容 ,如
如果熟悉vi,nano,joe等編輯器可複製此區內容貼到文件內(雖然此頁面的指令都已經簡化過)
I am context.
Hadoop Streaming with commands
- 製作 input 檔
hadoop@lucid:~$ cd /opt/hadoop hadoop@lucid:/opt/hadoop$ mkdir ./input; cp README.txt ./input/;
- 範例一:使用 cat 當 mapper,使用 wc 當 reducer
hadoop@lucid:/opt/hadoop$ bin/hadoop jar ./contrib/streaming/hadoop-0.20.2-streaming.jar -input input -output output-1 -mapper /bin/cat -reducer /usr/bin/wc hadoop@lucid:/opt/hadoop$ cat output-1/part-00000
- 範例二:使用 Bash Shell Script 當 Mapper 與 Reducer
hadoop@lucid:/opt/hadoop$ echo "sed -e \"s/ /\n/g\" | grep ." > streamingMapper.sh hadoop@lucid:/opt/hadoop$ echo "uniq -c | awk '{print \$2 \"\t\" \$1}'" > streamingReducer.sh hadoop@lucid:/opt/hadoop$ chmod a+x *.sh hadoop@lucid:/opt/hadoop$ bin/hadoop jar ./contrib/streaming/hadoop-0.20.2-streaming.jar -input input -output output-2 -mapper streamingMapper.sh -reducer streamingReducer.sh -file streamingMapper.sh -file streamingReducer.sh hadoop@lucid:/opt/hadoop$ cat output-2/part-00000
Last modified 13 years ago
Last modified on Oct 28, 2011, 2:53:43 PM