Sto provando a eseguire un'applicazione spark utilizzando bin/spark-submit. Quando faccio riferimento al mio jar di applicazione nel mio filesystem locale, funziona. Tuttavia, quando ho copiato il mio vaso applicazione a una directory in HDFS, ottengo la seguente eccezione:Spark-submit non funziona quando jar di applicazione è in hdf
Attenzione: Skip HDFS jar remoti: // localhost: 9000/user/HDFS/vasetti/semplice-project-1.0 -SNAPSHOT.jar. java.lang.ClassNotFoundException: com.example.SimpleApp
Ecco il comando:
$ ./bin/spark-submit --class com.example.SimpleApp --master local hdfs://localhost:9000/user/hdfs/jars/simple-project-1.0-SNAPSHOT.jar
che sto utilizzando Hadoop versione 2.6.0, la versione 1.2.1 scintilla
cosa hai deciso finalmente qui? Sei passato a YARN o hai trovato un altro workaround? Sanjiv, sotto, stava indicando un bug che sembra marginalmente rilevante. Hai provato il cluster in -deploy-mode? Grazie, bug interessante se è davvero un bug e non sembra essere stato inviato direttamente a JIRA. Forse controllare [questo] (https://issues.apache.org/jira/browse/SPARK-10643) – JimLohse