| 1 | 目前遇到的問題: |
| 2 | |
| 3 | 1. ssh 登入限制: |
| 4 | 一般使用者在drbl中,/home/user 是共用的情況之下,即使建立rsa key ,也會遇到檢查know_hosts遇到改變key的錯誤, |
| 5 | 因此只能單方向的連入,如 vm1 ->vm2。 |
| 6 | |
| 7 | * 解:用root帳號。已知drbl的 /etc, /root, /tmp 是分開&可讀寫的。/home 為共用&可讀寫,其他目錄只有server有讀寫權限,client 只能讀。 |
| 8 | * /bin/hadoop namenode -format 可以run |
| 9 | |
| 10 | 2. 預寫入log卻無法開啟檔案系統 |
| 11 | 執行 bin/start-all.sh 出現一堆錯誤訊息 |
| 12 | |
| 13 | * 解:搬移目錄/opt/hadoop 至 /root/,可解決此問題,並且成功打開 http:192.168.0.1:50030, 50060, 50070 |
| 14 | |
| 15 | 3. 莫名其妙的 put java.io.IOException: 問題 |
| 16 | 執行 bin/hadoop dfs -put text text 出現很多問題,依錯誤訊息將replication 改成 0 |
| 17 | 但重新跑一次還是有以下錯誤: |
| 18 | put java.io.IOException: failed to create file /user/root/text/text/LICENSE.txt on client 192.168.0.1 |
| 19 | |
| 20 | 不知是root權限問題,或是hadoop 遇到 drbl本身的限制 |