2012-07-18 12 views
5

Stiamo utilizzando la distribuzione cdh4-0.0 da cloudera. Non siamo in grado di avviare i daemon usando il comando sottostante.Impossibile avviare i demoni utilizzando start-dfs.sh

>start-dfs.sh 
Starting namenodes on [localhost] 
[email protected]'s password: 
localhost: mkdir: cannot create directory `/hduser': Permission denied 
localhost: chown: cannot access `/hduser/hduser': No such file or directory 
localhost: starting namenode, logging to /hduser/hduser/hadoop-hduser-namenode-canberra.out 
localhost: /home/hduser/work/software/cloudera/hadoop-2.0.0-cdh4.0.0/sbin/hadoop-daemon.sh: line 150: /hduser/hduser/hadoop-hduser-namenode-canberra.out: No such file or directory 
localhost: head: cannot open `/hduser/hduser/hadoop-hduser-namenode-canberra.out' for reading: No such file or directory 
+0

dare un'occhiata i messaggi di errore. Nessun permesso per creare cartelle, ecc.? – khmarbaise

+1

Il prodotto è installato come hduser ed è in esecuzione come hduser e abbiamo controllato tutti i parametri di configurazione HADOOP_ *, sembra che stiano bene. C'è un modo per stampare i registri di debug mentre il comando è in esecuzione. –

+0

Sembra che ci sia mancato di verificare se ssh hduser @ localhost funzioni senza password (di solito l'autenticazione con chiave pubblica è menzionata nei documenti per quanto ne so). – khmarbaise

risposta

1

Sembra che tu stia utilizzando i tarball?

cercare di impostare un override la posizione predefinita HADOOP_LOG_DIR nel file di configurazione etc/hadoop/hadoop-env.sh in questo modo:

export HADOOP_LOG_DIR=/path/to/hadoop/extract/logs/ 

e riprovare sbin/start-dfs.sh, e dovrebbe funzionare.

In ambienti pacchettizzati, gli script start-stop sono sintonizzati per fornire una posizione unica per ogni tipo di servizio, tramite lo stesso HADOOP_LOG_DIR env-var, in modo che non abbiano lo stesso problema che si sta vedendo.

Se si utilizza pacchetti, invece, non utilizzare questi script e invece basta fare:

service hadoop-hdfs-namenode start 
service hadoop-hdfs-datanode start 
service hadoop-hdfs-secondarynamenode start