{{{ #!html
讓 Nutch 1.2 支援中文分詞 方法教學
Nutch 1.2 + IK-Analyzer 3.2.8 中文分詞庫
}}} [[PageOutline]] = Change Log = * 20111019 解決 中文分詞 問題。輸入: 解析度 會出現錯誤 * 20110901 IKAnalyzer3.2.8_waue.jar 重編 = 編譯 = 下載解壓縮 nutch-1.2 (目前用 nutch-1.2-bin.tar.gz) {{{ cd $nutch-1.2/ vim src/java/org/apache/nutch/analysis/NutchAnalysis.jj }}} {{{ #!text | )+ > }}} * 用編譯器 javacc 編譯出七個java檔 {{{ CharStream.java NutchAnalysisTokenManager.java TokenMgrError.java NutchAnalysisConstants.java ParseException.java NutchAnalysis.java Token.java }}} {{{ cd $nutch-1.2/src/java/org/apache/nutch/analysis javacc -OUTPUT_DIRECTORY=./ika/ NutchAnalysis.jj mv ./ika/* ./ ; rmdir ika; }}} * 編譯剛編出來的 !NutchAnalysis.java {{{ vim $nutch-1.2/src/java/org/apache/nutch/analysis/NutchAnalysis.java }}} * 加入ParseException (共兩處): {{{ #!text public static Query parseQuery(....) throws IOException,ParseException }}} /opt/nutch-1.2/src/java/org/apache/nutch/searcher/Query.java {{{ #!java (:456) public static Query parse(String queryString, String queryLang, Configuration conf) throws IOException { Query que; try { que = fixup(NutchAnalysis.parseQuery( queryString, AnalyzerFactory.get(conf).get(queryLang), conf), conf); }catch (org.apache.nutch.analysis.ParseException e){ que = new Query(); } return que; } }}} * 下載 IKAnalyzer3.2.8.jar (2011/07/29) 解壓縮 * 此處可以使用官方原始檔來編譯 ,但最後要讓 nutch 頁面索引時索引入的IKAnalyzer 需要修正過,可直接使用我修好的 [http://trac.nchc.org.tw/cloud/attachment/wiki/waue/2011/0801/IKAnalyzer3.2.8_waue.jar IKAnalyzer3.2.8_waue.jar] [http://code.google.com/p/ik-analyzer/downloads/list] nutch-1.2 用的是 lucene-core-3.0.1.jar , 因此對應 ikanalyzer 為 3.2.8 版本 || 3.1.6GA || 兼容 2.9.1 及先前版本 ||对 solr1.3、solr1.4 提供接口实现 || || 3.2.0G 及后续版本 || 兼容 Lucene2.9 及 3.0 版本 || 仅对 solr1.4 提供接口实现 丌支持 Lucene2.4 及先前版本 || IKAnalyzer3.2.8 bin.zip 內的 IKAnalyzer3.2.8.jar 解壓縮出來,分別放到以下資料夾 {{{ cp IKAnalyzer3.2.8.jar $nutch-1.2/lib/ cp IKAnalyzer3.2.8.jar $my_nutch_dir/lib/ cp IKAnalyzer3.2.8.jar $my_tomcat_dir/webapps/ROOT/WEB-INF/lib }}} * 修改 NutchDocumentAnalyzer.java 程式碼 {{{ vim src/java/org/apache/nutch/analysis/NutchDocumentAnalyzer.java }}} 將 {{{ #!text public TokenStream tokenStream(String fieldName, Reader reader) { Analyzer analyzer; if ("anchor".equals(fieldName)) analyzer = ANCHOR_ANALYZER; else analyzer = CONTENT_ANALYZER; return analyzer.tokenStream(fieldName, reader); } }}} 改成 {{{ #!text public TokenStream tokenStream(String fieldName, Reader reader) { Analyzer analyzer; if ("anchor".equals(fieldName)) analyzer = ANCHOR_ANALYZER; else //analyzer = CONTENT_ANALYZER; analyzer = new org.wltea.analyzer.lucene.IKAnalyzer(); return analyzer.tokenStream(fieldName, reader); } }}} * 修改 build.xml {{{ #!text }}} * 修改中文分詞錯誤 問題描述: 由於Nutch不是原生支持中文的,開發者沒有考慮到中文的分詞會存在token的交叉重疊的情況,導致在根據用戶輸入查詢串的token獲取頁面summary時出現:StringIndexOutOfBoundsException的異常。比如:「教育方針」可能出現這樣的分詞「教育方針」、「教育」、「方針」,這幾個token就交叉重疊了。 錯誤重現: java.lang.RuntimeException: java.util.concurrent.ExecutionException: java.lang.StringIndexOutOfBoundsException: String index out of range: -4 at org.apache.nutch.searcher.FetchedSegments.getSummary(FetchedSegments.java:316) 修改: nutch/src/plugin/summary-basic/src/java/org/apache/nutch/summary/basic/BasicSummarizer.java {{{ #!java ...(no. 181)... // fix begin Token t = tokens[j]; if (highlight.contains(t.term())) { excerpt.addToken(t.term()); if( offset < t.startOffset() ){ excerpt.add(new Fragment(text.substring(offset, t.startOffset()))); excerpt.add(new Highlight(text.substring(t.startOffset(),t.endOffset()))); } if( offset >= t.startOffset() ){ if( offset < t.endOffset() ){ excerpt.add(new Highlight(text.substring(offset,t.endOffset()))); } } offset = Math.max(offset, t.endOffset()); endToken = Math.min(j + sumContext, tokens.length); } j++; } //while // fix over }}} {{{ #!java ...(no. 181)... if(j IK Analyzer /cyc.dic 2. 編輯你的字典檔 cyc.dic ,一行一個關鍵字,如: 數學 嘉義縣網 3. 用解壓縮工具打開 /opt/crawlzilla/nutch/nutch-1.2.job,塞入 cyc.dic 與 IKAnalyzer.cfg.xml 4. 重新啟動crawlzilla 的所有服務 之後抓的索引庫就有該中文分詞了了 補充: 如果有兩個字典檔以上的話,可以一起放到 nutch-1.0.job 的壓縮檔內, 修改 IKAnalyzer.cfg.xml ,加入字典檔, 每個字典檔各用分號區隔。 如 /cyc.dic;/cyc2.dic