2010-03-01 13 views

risposta

23

Hai bisogno di guardare nel vostro HDFS-default.xml file di configurazione per l'impostazione dfs.data.dir. L'impostazione predefinita è: $ {hadoop.tmp.dir}/dfs/data e si noti che $ {hadoop.tmp.dir} è in realtà in core-default.xml descritto here.

Le opzioni di configurazione sono descritte here. La descrizione di questa impostazione è:

determina dove sul file system locale di un nodo di dati DFS dovrebbe memorizzare i blocchi. Se si tratta di un elenco di directory delimitato da virgole , , i dati verranno archiviati in tutte le directory denominate , in genere su diversi dispositivi . Le directory che non esistono vengono ignorate.

+1

Il link è rotto – mortonjt

+0

questo link è rotto :( –

+0

qual è il valore di default di 'hadoop.tmp.dir'? – chenzhongpu

14

come "risposta più recente" e di chiarire i numeri di versione Hadoop:

Se si utilizza Hadoop 1.2.1 (o qualcosa di simile), la risposta di nullità @Binary è ancora vero.

Ma se si utilizza Hadoop 2.1.0-beta (o qualcosa di simile), si dovrebbe leggere la documentazione di configurazione here e l'opzione che si desidera impostare è: dfs.datanode.data.dir

-5

Esegui questo nel cmd pronta, e si otterrà la posizione DHFS:

bin/hadoop fs -ls 
+0

Come presentato, questo comando dà solo un errore. E hai corretto il comando, non avrebbe affatto risposto alla domanda originale, -ls non ti aiuterà in questo senso. – derekv

Problemi correlati