Changes between Version 5 and Version 6 of waue/2010/0715


Ignore:
Timestamp:
Jul 16, 2010, 11:43:57 AM (14 years ago)
Author:
waue
Comment:

--

Legend:

Unmodified
Added
Removed
Modified
  • waue/2010/0715

    v5 v6  
    1919 || $my_tomcat_dir || 原本被用來放nutch網頁(在tomcat內)的資料夾 || /opt/nutchez/tomcat ||
    2020
    21 = 修改程式碼 =
     21= 何謂中文分詞 =
     22
     23中文自動分詞指的是使用計算機自動對中文文本進行詞語的切分,即像英文那樣使得中文句子中的詞之間有空格以標識。中文自動分詞被認為是中文自然語言處理中的一個最基本的環節。
     24
     25簡單來說,以'''''"今天天氣真好"'''''這段字而言,若搜尋"氣真"
     26 * 沒有中文分詞的結果為:1筆 => 今天天'''''氣真'''''好
     27 * 有中文分詞:0筆 (因為詞庫為今天、天天、天氣、真、真好、好)
     28
     29
     30下面的例子即為,透過完成括充中文分詞(ik-analyzer)之後的nutch搜尋引擎,對"國家高速網路中心"的首頁(http://www.nchc.org.tw/tw/) 作資料爬取,並以此為搜尋資料庫。
     31
     32搜尋"中心"兩字 有74筆資料,但搜尋單一一個"心"字只有 4筆資料;反觀若是沒有經過中文分詞,則單搜尋"心"必定比搜尋"中心"的資料更多
     33
     34------
     351. 搜尋 中心 這個字串
     36[[Image(1.png)]]
     37------
     382. 單搜尋 心 這個字
     39[[Image(2.png)]]
     40------
     413. 搜尋 "冀此" 或單獨 "冀" 都沒有資料
     42[[Image(3.png)]]
     43 ps : 搜尋"希冀"才會有資料
     44------
     45
     46= 方法 =
     47== 修改程式碼 ==
    2248
    2349 * 安裝必要工具(java 已經安裝)
     
    119145}}}
    120146
    121  = 重編 nutch =
     147 == 重編 nutch ==
    122148 * 重新編譯 nutch-1.0
    123149{{{
     
    136162}}}
    137163
    138  = 開始使用 =
     164 == 開始使用 ==
    139165
    140166 * 最後,將nutch-job-1.0.jar複製到我的nutchez資料夾內取代使用
     
    163189 * 爬取後的資料就會依照中文分詞來分。
    164190 * 即使用原始的nutch所crawl下來的資料,將 重編後的nutch-1.0.jar nutch-1.0.job IKAnalyzer3.1.6 正確放到你原本的nutch搜尋網頁中,重新啟動tomcat後,也可直接享用有分詞的結果
    165 [[Image(2010-07-15-190139_751x697_scrot.png)]]
     191 * 中文分詞之後的結果並不會比較多,反而更少。但是精簡過後的搜尋結果才能提供更準確的搜尋內容。