Changes between Initial Version and Version 1 of III131019/Lab20


Ignore:
Timestamp:
Oct 20, 2013, 1:04:50 PM (11 years ago)
Author:
jazz
Comment:

--

Legend:

Unmodified
Added
Removed
Modified
  • III131019/Lab20

    v1 v1  
     1◢ <[wiki:III131019/Lab19 實作十九]> | <[wiki:III131019 回課程大綱]> ▲ | <[wiki:III131019/Lab21 實作二十一]> ◣
     2
     3= 實作二十 Lab20 =
     4
     5{{{
     6#!html
     7<p style="text-align: center;"><big style="font-weight: bold;"><big>預設的輸入格式<br/>TextInputFormat</big></big></p>
     8}}}
     9
     10[[PageOutline]]
     11
     12{{{
     13#!text
     14請先連線至 nodeN.3du.me , N 為您的報名編號
     15}}}
     16
     17 * 為了觀察 FileInputFormat 的行為,我們使用 update jar 的技巧,對 TextInputFormat.java 做了小幅度的修改。
     18 * 官方實作的 TextInputFormat.java 有兩個(一個新版,一個舊版)
     19{{{
     20user@node1:~$ find /home/user/hadoop/src/ -name "TextInputFormat.java"
     21/home/user/hadoop/src/mapred/org/apache/hadoop/mapreduce/lib/input/TextInputFormat.java
     22/home/user/hadoop/src/mapred/org/apache/hadoop/mapred/TextInputFormat.java
     23}}}
     24 * 這裡我們修改新版的 TextInputFormat
     25{{{
     26#!diff
     27--- /home/user/hadoop/src/mapred/org/apache/hadoop/mapreduce/lib/input/TextInp
     28utFormat.java   2012-10-03 13:17:16.000000000 +0800
     29+++ /home/user/hadoop_labs/lab011/src/TextInputFormat.java      2013-10-19 11:
     3025:16.419320587 +0800
     31@@ -38,11 +38,13 @@
     32   public RecordReader<LongWritable, Text>
     33     createRecordReader(InputSplit split,
     34                        TaskAttemptContext context) {
     35+    System.err.println("TextInputFormat.createRecordReader()");
     36     return new LineRecordReader();
     37   }
     38
     39   @Override
     40   @Override
     41   protected boolean isSplitable(JobContext context, Path file) {
     42+    System.err.println("TextInputFormat.isSplitable(context," + file.toString() + ")");
     43     CompressionCodec codec =
     44       new CompressionCodecFactory(context.getConfiguration()).getCodec(file);
     45     return codec == null;
     46}}}
     47
     48{{{
     49unset HADOOP_CONF_DIR
     50cd ~/hadoop_labs/lab011
     51ant
     52cd ~/hadoop_labs/lab010
     53mkdir -p my_input
     54echo "A B C D" > my_input/input1
     55echo "C D A B" > my_input/input2
     56hadoop fs -put my_input my_input
     57sed -i 's#setNumReduceTasks(0)#setNumReduceTasks(1)#g' ~/hadoop_labs/lab010/src/WordCount.java
     58hadoop jar WordCount.jar my_input my_output
     59}}}
     60
     61 *
     62{{{
     63export HADOOP_CONF_DIR=~/hadoop/conf.local/
     64hadoop jar WordCount.jar my_input my_output
     65unset HADOOP_CONF_DIR
     66}}}
     67
     68== 實作習題 ==
     69
     70 <問題 1> 請問執行任務時,同時有幾個 Mapper?
     71
     72 <問題 2> 請問執行任務後,最後產生幾個輸出檔?