Sto eseguendo un cluster a nodo singolo usando hadoop versione 1.0.1 e Ubuntu linux 11.10. Stavo eseguendo un semplice script quando si è bloccato, probabilmente perché il mio computer è andato a dormire. Ho provato a riformattare il file system usandoCome posso formattare e aggiungere file a hadoop dopo che si è bloccato?
bin/Hadoop NameNode -format
e ottenuto il seguente errore:
ERRORE namenode.NameNode: java.io.IOException: Impossibile bloccare lo stoccaggio/app/Hadoop/tmp/DFS/nome. La directory è già bloccata. a org.apache.hadoop.hdfs.server.common.Storage $ StorageDirectory.lock (Storage.java:602)
cerco di aggiungere i file di input usando il comando:
fs bin/Hadoop -copyFromLocal DataDirectory/* txt inputDirectory
e ottenere l'errore:.
12/04/15 09:05:21 WARN hdfs.DFSClient: DataStreamer Eccezione: org.apache.hadoop.ipc.RemoteException: java.io .IOException: File /home/hduser/input/book1.txt può essere replicato solo su 0 nodi, invece di 1
12/04/15 09:05:21 WARN hdfs.DFSClient: errore Recupero per blocco null datanode errato [0] nodi == null 12/04/15 09:05:21 WARN hdfs.DFSClient: Impossibile ottenere posizioni di blocco. File di origine "/home/hduser/input/book1.txt" - Interruzione ...
In seguito, vedo i file nella directory di input, ma le loro dimensioni sono 0. Qualche idea su come posso aggiungere i file? Sono stato in grado di aggiungere i file prima che si verificasse il crash di hadoop, quindi posso reinstallare linux e hadoop, ma sembra eccessivo. Grazie.
Grazie, Tejas, ma ora non posso nemmeno connettersi all'host locale, anche dopo la prova ssh. È estremo, ma sto reinstallando Linux. – user1106278
quali errori stai ottenendo? –
Questo ha funzionato per me tranne che ho dovuto impostare dfs.name.dir e dfs.data.dir nel file hdfs-site.xml. Non sono sicuro del motivo per cui non funzionava prima perché nessuna partizione era quasi completa. – MikeKulls