Come qualcuno aggiusta un HDFS che è corrotto? Ho consultato il sito Web Apache/Hadoop e ha detto che è fsck
command, che non lo aggiusta. Speriamo che qualcuno che si è imbattuto in questo problema prima possa dirmi come risolvere questo problema.Come riparare i file corrotti HDFS
A differenza di una utility fsck tradizionale per file system nativi, questo comando non corregge gli errori rilevati. Normalmente NameNode corregge automaticamente la maggior parte dei guasti recuperabili.
Quando eseguivo bin/hadoop fsck/-delete
, elencava i file che erano blocchi corrotti o mancanti. Come posso renderlo non corrotto? Questo è su una macchina da allenamento, quindi potrei soffiare via tutto ma quando andremo live, non sarò in grado di "aggiustarlo" soffiando via tutto così sto cercando di capirlo adesso.
Thx per la tua risposta. Proverò il tuo suggerimento la prossima volta che l'HDFS presenta problemi. In qualche modo, si è risolto quando ho eseguito 'bin/hadoop fsck/-delete'. Successivamente, l'HDFS non è stato più danneggiato e alcuni file sono stati trovati in/lost + found. Non l'ha fatto prima quando ho fermato l'HDFS e riavviato più volte. Ho upvoted e accettato la tua risposta =) Thx di nuovo. – Classified
Ma se un file viene replicato 3 volte nel cluster, non posso semplicemente riprenderlo da un altro nodo? So che ho avuto qualche perdita di dati su una macchina, ma non è l'intero punto di HDFS che questo non dovrebbe importare? –
L'ho fatto per un periodo di tempo prolungato e non ho risolto il problema. Ma sono consapevole che non esiste altra opzione per recuperare i dati danneggiati o persi in hdf. Ancora posso vedere il problema dei blocchi corrotti anche se cancellato i dati da tutti i nodi dati. –