2015-04-14 7 views
7

versione Spark 1.3.0Impossibile inviare i lavori di suscitare grappolo (cluster modalità)

un errore durante l'invio di posti di lavoro a suscitare cluster modalità cluster

./spark-submit --class org.apache.spark.examples.streaming.JavaDirectKafkaWordCount --deploy-mode cluster wordcount-0.1.jar 172.20.5.174:9092,172.20.9.50:9092,172.20.7.135:9092 log 

Resa:

Spark assembly has been built with Hive, including Datanucleus jars on classpath 
Running Spark using the REST application submission protocol. 
Using Spark's default log4j profile: org/apache/spark/log4j-defaults.properties 
15/04/14 16:41:10 INFO StandaloneRestClient: Submitting a request to launch an application in spark://172.20.9.151:7077. 
Warning: Master endpoint spark://172.20.9.151:7077 was not a REST server. Falling back to legacy submission gateway instead. 
15/04/14 16:41:11 WARN NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable 
Sending launch command to spark://172.20.9.151:7077 
Error connecting to master spark://172.20.9.151:7077 (akka.tcp://[email protected]:7077), exiting. 

risposta

17

L'URL Master Spark REST si trova sulla porta 6066 per impostazione predefinita. Quindi dovresti vedere questo come tuo endpoint Master: spark: //172.20.9.151: 6066.

Se si passa alla console Web di Spark (http://master:8080), si otterranno i dettagli dei vari endpoint del cluster.

+0

Perché richiede URL REST? Non dovremmo dare scintilla, master URL, quello in genere in esecuzione sulla porta 7077? – shanti

Problemi correlati