2011-12-14 20 views
7
[email protected]:/usr/local/hadoop$ bin/hadoop dfs -copyFromLocal /tmp/input 
/user/haduser/input 

11/12/14 14:21:00 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:54310. Already tried 0 time(s). 

11/12/14 14:21:01 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:54310. Already tried 1 time(s). 

11/12/14 14:21:02 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:54310. Already tried 2 time(s). 

11/12/14 14:21:03 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:54310. Already tried 3 time(s). 

11/12/14 14:21:04 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:54310. Already tried 4 time(s). 

11/12/14 14:21:05 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:54310. Already tried 5 time(s). 

11/12/14 14:21:06 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:54310. Already tried 6 time(s). 

11/12/14 14:21:07 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:54310. -Already tried 7 time(s). 

11/12/14 14:21:08 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:54310. Already tried 8 time(s). 

11/12/14 14:21:09 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:54310. Already tried 9 time(s). 

Bad connection to FS. command aborted. exception: Call to localhost/127.0.0.1:54310 failed on connection exception: java.net.ConnectException: Connection refused 

sto ottenendo gli errori di cui sopra, quando sto cercando di copiare i file /tmp/input-/user/haduser/input anche se il file contiene /etc/hosts voce per localhost. Quando si esegue jps command, TaskTracker e namenode non sono elencati.errori durante l'esecuzione di Hadoop

Quale potrebbe essere il problema? Per favore qualcuno mi aiuti con questo.

risposta

1

NameNode (NN) mantiene lo spazio dei nomi per HDFS e dovrebbe essere in esecuzione per le operazioni del filesystem su HDFS. Controlla i log perché il NN non è stato avviato. TaskTracker non è richiesto per operazioni su HDFS, solo NN e DN sono sufficienti. Consulta le esercitazioni http://goo.gl/8ogSk e http://goo.gl/NIWoK su come configurare Hadoop su un nodo singolo e multiplo.

+0

Ho seguito lo stesso collegamento per l'installazione. Ma ottenendo ancora gli errori. –

+0

ok - controlla i registri perché NN non è stato avviato. –

+0

Non ero in grado di formattare il namenode usando il comando $ bin/hadoop namenode -format. È questa la ragione per cui il namenode non sta iniziando? –

1

Tutti i file nel cestino sono eseguibili. Basta copiare il comando e incollarlo nel terminale. Assicurati che l'indirizzo sia corretto, cioè l'utente deve essere sostituito da qualcosa. Quello farebbe il trucco.

9

Ho avuto problemi simili - In realtà Hadoop era vincolante per IPv6. Poi ho aggiunto - "export HADOOP_OPTS=-Djava.net.preferIPv4Stack=true" a $HADOOP_HOME/conf/hadoop-env.sh

Hadoop era vincolante per IPv6 anche quando avevo IPv6 disabilitato sul mio sistema. Una volta che l'ho aggiunto a env, ho iniziato a funzionare correttamente.

Spero che questo aiuti qualcuno.

3

cercare di fare ssh al sistema locale utilizzando l'IP, in questo caso:

$ ssh 127.0.0.1

Una volta che siete in grado di fare la ssh con successo. Eseguire il comando seguente per conoscere l'elenco delle porte aperte

~ $ lsof -i

sguardo per un connettore di ascolto con nome: localhost: < PORTNAME> (LISTEN)

copia questo < PORTNAME> e sostituisci il valore esistente del numero di porta nel tag della proprietà fs.default.name nel tuo core-site.xml nella cartella conf hadoop

salva core-site.xml, questo dovrebbe risolvere il problema.

Problemi correlati