Ho installato e configurato Hadoop 2.5.2 per un cluster a 10 nodi. 1 agisce come masternode e altri nodi come slavenodes.hadoop fs -ls restituisce "nessun file o directory"
Ho un problema nell'esecuzione dei comandi hadoop fs. Il comando hadoop fs -ls funziona perfettamente con l'URI HDFS. Dà messaggio "ls:` ':. Nessun file o directory" quando viene utilizzato senza HDFS URI
[email protected]:~$ hadoop fs -ls
15/01/30 17:03:49 WARN util.NativeCodeLoader: Unable to load native-hadoop
ibrary for your platform... using builtin-java classes where applicable
ls: `.': No such file or directory
[email protected]:~$
considerando che, eseguendo lo stesso comando con HDFS URI
[email protected]:~$ hadoop fs -ls hdfs://101-master:50000/
15/01/30 17:14:31 WARN util.NativeCodeLoader: Unable to load native-hadoop
library for your platform... using builtin-java classes where applicable
Found 3 items
drwxr-xr-x - ubuntu supergroup 0 2015-01-28 12:07 hdfs://101-master:50000/hvision-data
-rw-r--r-- 2 ubuntu supergroup 15512587 2015-01-28 11:50 hdfs://101-master:50000/testimage.seq
drwxr-xr-x - ubuntu supergroup 0 2015-01-30 17:03 hdfs://101-master:50000/wrodcount-in
[email protected]:~$
io sono sempre un'eccezione a MapReduce programma a causa di questo comportamento. jarlib si riferisce al percorso del file HDFS, mentre, voglio che jarlib faccia riferimento ai file jar memorizzati nel file system locale sui nodi Hadoop.