wiki:drbl&hadoop

目前遇到的問題:

  1. ssh 登入限制:

一般使用者在drbl中,/home/user 是共用的情況之下,即使建立rsa key ,也會遇到檢查know_hosts遇到改變key的錯誤, 因此只能單方向的連入,如 vm1 ->vm2。

  • 解:用root帳號。已知drbl的 /etc, /root, /tmp 是分開&可讀寫的。/home 為共用&可讀寫,其他目錄只有server有讀寫權限,client 只能讀。
  • /bin/hadoop namenode -format 可以run
  1. 預寫入log卻無法開啟檔案系統

執行 bin/start-all.sh 出現一堆錯誤訊息

  • 解:搬移目錄/opt/hadoop 至 /root/,可解決此問題,並且成功打開 http:192.168.0.1:50030, 50060, 50070
  1. 莫名其妙的 put java.io.IOException: 問題

執行 bin/hadoop dfs -put text text 出現很多問題,依錯誤訊息將replication 改成 0 但重新跑一次還是有以下錯誤: put java.io.IOException: failed to create file /user/root/text/text/LICENSE.txt on client 192.168.0.1

不知是root權限問題,或是hadoop 遇到 drbl本身的限制

Last modified 16 years ago Last modified on Nov 11, 2008, 5:57:03 PM