Oggi, durante l'esecuzione di script di maiale ho ottenuto lo stesso errore indicato nella domanda:
starting namenode, logging to /usr/local/hadoop/libexec/../logs/hadoop-training-namenode-localhost.localdomain.out
localhost: /home/training/.bashrc: line 10: /jdk1.7.0_10/bin: No such file or directory
localhost: Warning: $HADOOP_HOME is deprecated.
localhost:
localhost: starting datanode, logging to /usr/local/hadoop/libexec/../logs/hadoop-training-datanode-localhost.localdomain.out
localhost: /home/training/.bashrc: line 10: /jdk1.7.0_10/bin: No such file or directory
localhost: Warning: $HADOOP_HOME is deprecated.
localhost:
localhost: starting secondarynamenode, logging to /usr/local/hadoop/libexec/../logs/hadoop-training-secondarynamenode-localhost.localdomain.out
starting jobtracker, logging to /usr/local/hadoop/libexec/../logs/hadoop-training-jobtracker-localhost.localdomain.out
localhost: /home/training/.bashrc: line 10: /jdk1.7.0_10/bin: No such file or directory
localhost: Warning: $HADOOP_HOME is deprecated.
localhost:
localhost: starting tasktracker, logging to /usr/local/hadoop/libexec/../logs/hadoop-training-tasktracker-localhost.localdomain.out
Così, il risposta è:
[[email protected] bin]$ stop-all.sh
e poi Tipo:
[[email protected] bin]$ start-all.sh
Il problema verrà risolto. Ora puoi eseguire lo script maiale con mapreduce!
fonte
2015-11-18 00:24:47
Hai controllato il log del Namenode (predefinito in '$ HADOOP_HOME/logs', credo)? La maggior parte delle volte le informazioni sono abbastanza chiare. – Pieterjan
puoi condividere i tuoi file di registro? – Tariq
piuttosto che usare jps (che mostra solo i processi per l'utente corrente), puoi eseguire un 'ps axww | grep hadoop' su entrambi i nodi del cluster (dellnode1 e dellnode2) e incolla l'output nella tua domanda originale –