2013-01-11 19 views
9

Quando provo ad avviare il hadoop sul nodo master, ottengo il seguente output.e il namenode non si avvia.errore nel namenode che inizia

[[email protected] ~]$ start-dfs.sh 
starting namenode, logging to /usr/local/hadoop/bin/../logs/hadoop-hduser-namenode-dellnode1.library.out 
dellnode1.library: datanode running as process 5123. Stop it first. 
dellnode3.library: datanode running as process 4072. Stop it first. 
dellnode2.library: datanode running as process 4670. Stop it first. 
dellnode1.library: secondarynamenode running as process 5234. Stop it first. 
[[email protected] ~]$ jps 
5696 Jps 
5123 DataNode 
5234 SecondaryNameNode 
+0

Hai controllato il log del Namenode (predefinito in '$ HADOOP_HOME/logs', credo)? La maggior parte delle volte le informazioni sono abbastanza chiare. – Pieterjan

+0

puoi condividere i tuoi file di registro? – Tariq

+0

piuttosto che usare jps (che mostra solo i processi per l'utente corrente), puoi eseguire un 'ps axww | grep hadoop' su entrambi i nodi del cluster (dellnode1 e dellnode2) e incolla l'output nella tua domanda originale –

risposta

15

"Arresta prima".

  • prima chiamata stop-all.sh

  • Tipo jps

  • chiamata start-all.sh (o start-dfs.sh e start-mapred.sh)

  • jps tipo (se NameNode non appaiono di tipo "Hadoop NameNode" e verificare l'errore)

+0

Che aspetto dovrebbe avere un tipico output? Sto ottenendo solo '15845 Jps'. http://unix.stackexchange.com/questions/257279/validate-start-dfs-sh – gsamaras

+0

Questo metodo è deprecato. così l'utilizzo di stop-dfs.sh, stop-yarn.sh, start-dfs.sh, start-yarn.sh è preferito –

4

Secondo l'esecuzione di "stop-all.sh" sulle versioni più recenti di hardoop, questo è deprecato. Si dovrebbe invece usare:

stop-dfs.sh

e

stop-yarn.sh

+0

Grazie, questo ha funzionato per me –

1

Oggi, durante l'esecuzione di script di maiale ho ottenuto lo stesso errore indicato nella domanda:

starting namenode, logging to /usr/local/hadoop/libexec/../logs/hadoop-training-namenode-localhost.localdomain.out 
localhost: /home/training/.bashrc: line 10: /jdk1.7.0_10/bin: No such file or directory 
localhost: Warning: $HADOOP_HOME is deprecated. 
localhost: 
localhost: starting datanode, logging to /usr/local/hadoop/libexec/../logs/hadoop-training-datanode-localhost.localdomain.out 
localhost: /home/training/.bashrc: line 10: /jdk1.7.0_10/bin: No such file or directory 
localhost: Warning: $HADOOP_HOME is deprecated. 
localhost: 
localhost: starting secondarynamenode, logging to /usr/local/hadoop/libexec/../logs/hadoop-training-secondarynamenode-localhost.localdomain.out 
starting jobtracker, logging to /usr/local/hadoop/libexec/../logs/hadoop-training-jobtracker-localhost.localdomain.out 
localhost: /home/training/.bashrc: line 10: /jdk1.7.0_10/bin: No such file or directory 
localhost: Warning: $HADOOP_HOME is deprecated. 
localhost: 
localhost: starting tasktracker, logging to /usr/local/hadoop/libexec/../logs/hadoop-training-tasktracker-localhost.localdomain.out 

Così, il risposta è:

[[email protected] bin]$ stop-all.sh 

e poi Tipo:

[[email protected] bin]$ start-all.sh 

Il problema verrà risolto. Ora puoi eseguire lo script maiale con mapreduce!

Problemi correlati