Ho scaricato la versione prebuild di spark 1.4.0 senza hadoop (con Haddop fornito dall'utente). Quando ho eseguito il comando scintilla scocca, ho ottenuto questo errore:NoClassDefFoundError com.apache.hadoop.fs.FSDataInputStream quando si esegue spark-shell
> Exception in thread "main" java.lang.NoClassDefFoundError: org/apache/hadoop/fs/
FSDataInputStream
at org.apache.spark.deploy.SparkSubmitArguments$$anonfun$mergeDefaultSpa
rkProperties$1.apply(SparkSubmitArguments.scala:111)
at org.apache.spark.deploy.SparkSubmitArguments$$anonfun$mergeDefaultSpa
rkProperties$1.apply(SparkSubmitArguments.scala:111)
at scala.Option.getOrElse(Option.scala:120)
at org.apache.spark.deploy.SparkSubmitArguments.mergeDefaultSparkPropert
ies(SparkSubmitArguments.scala:111)
at org.apache.spark.deploy.SparkSubmitArguments.<init>(SparkSubmitArgume
nts.scala:97)
at org.apache.spark.deploy.SparkSubmit$.main(SparkSubmit.scala:106)
at org.apache.spark.deploy.SparkSubmit.main(SparkSubmit.scala)
Caused by: java.lang.ClassNotFoundException: org.apache.hadoop.fs.FSDataInputStr
eam
at java.net.URLClassLoader$1.run(URLClassLoader.java:366)
at java.net.URLClassLoader$1.run(URLClassLoader.java:355)
at java.security.AccessController.doPrivileged(Native Method)
at java.net.URLClassLoader.findClass(URLClassLoader.java:354)
at java.lang.ClassLoader.loadClass(ClassLoader.java:425)
at sun.misc.Launcher$AppClassLoader.loadClass(Launcher.java:308)
at java.lang.ClassLoader.loadClass(ClassLoader.java:358)
... 7 more
ho cercato su Internet, si dice che HADOOP_HOME non è stato ancora impostato in scintilla-env.cmd. Ma non riesco a trovare spark-env.cmd nella cartella di installazione di spark. Ho tracciato il comando spark-shell e sembra che non ci sia HADOOP_CONFIG. Ho provato ad aggiungere HADOOP_HOME alla variabile d'ambiente, ma continua a dare la stessa eccezione.
In realtà non uso davvero il hadoop. Ho scaricato hadoop come soluzione alternativa come suggerito in this question
Sto usando Windows 8 e Scala 2.10.
Qualsiasi aiuto sarà apprezzato. Grazie.
Ho avuto lo stesso problema, poi ho installato con Hadoop-2 uno e che sta funzionando benissimo. – Chitrasen