| 1 | = java.io.IOException: File XXX could only be replicated to 0 nodes, instead of 1 = |
| 2 | |
| 3 | |
| 4 | * 今天系統一直遇到這個問題: |
| 5 | |
| 6 | {{{ |
| 7 | 09/07/09 16:37:45 WARN dfs.DFSClient: DataStreamer Exception: org.apache.hadoop.ipc.RemoteException: |
| 8 | java.io.IOException: File /user/waue/input/input/hadoop-site.xml could only be replicated to 0 nodes, instead of 1 |
| 9 | }}} |
| 10 | |
| 11 | 看了超多人的解法,沒一個有用。後來才發現自己的問題是:硬碟空間不足了,硬碟的使用率99%,難怪hdfs不給寫資料,ok 不過也許還會有不同情況但卻發生這個錯誤訊息。 |
| 12 | |
| 13 | 這個錯誤訊息意思是,他想要放檔案,但沒半個node可以給存取,因此我們需要檢查: |
| 14 | |
| 15 | 1. 系統或hdfs是否還有空間 (像我就是) |
| 16 | 2. datanode數是否正常 |
| 17 | 3. 是否在safemode |
| 18 | 4. 讀寫的權限 |
| 19 | |
| 20 | * 什麼都檢查過都正常的話,也只好砍掉重練了 |
| 21 | |