2015-10-05 12 views
6

Abbiamo installato il cluster spark distribuito (versione 1.5.0) e proviamo a eseguire spark-perf. Ma abbiamo ricevuto questo errore e non abbiamo idea di come risolverlo.Ottieni SparkUncaughtExceptionHandler quando esegui spark-perf

15/10/05 20:14:37 ERROR SparkUncaughtExceptionHandler: Uncaught exception in thread Thread[appclient-registration-retry-thread,5,main] 
java.util.concurrent.RejectedExecutionException: Task [email protected] rejected from [email protected][Running, pool size = 1, active threads = 1, queued tasks = 0, completed tasks = 0] 
     at java.util.concurrent.ThreadPoolExecutor$AbortPolicy.rejectedExecution(ThreadPoolExecutor.java:2048) 
     at java.util.concurrent.ThreadPoolExecutor.reject(ThreadPoolExecutor.java:821) 
     at java.util.concurrent.ThreadPoolExecutor.execute(ThreadPoolExecutor.java:1372) 
     at java.util.concurrent.AbstractExecutorService.submit(AbstractExecutorService.java:110) 
     at org.apache.spark.deploy.client.AppClient$ClientEndpoint$$anonfun$tryRegisterAllMasters$1.apply(AppClient.scala:96) 
     at org.apache.spark.deploy.client.AppClient$ClientEndpoint$$anonfun$tryRegisterAllMasters$1.apply(AppClient.scala:95) 
     at scala.collection.TraversableLike$$anonfun$map$1.apply(TraversableLike.scala:244) 
     at scala.collection.TraversableLike$$anonfun$map$1.apply(TraversableLike.scala:244) 
     at scala.collection.IndexedSeqOptimized$class.foreach(IndexedSeqOptimized.scala:33) 
     at scala.collection.mutable.ArrayOps$ofRef.foreach(ArrayOps.scala:108) 
     at scala.collection.TraversableLike$class.map(TraversableLike.scala:244) 
     at scala.collection.mutable.ArrayOps$ofRef.map(ArrayOps.scala:108) 
     at org.apache.spark.deploy.client.AppClient$ClientEndpoint.tryRegisterAllMasters(AppClient.scala:95) 
     at org.apache.spark.deploy.client.AppClient$ClientEndpoint.org$apache$spark$deploy$client$AppClient$ClientEndpoint$$registerWithMaster(AppClient.scala:121) 
     at org.apache.spark.deploy.client.AppClient$ClientEndpoint$$anon$2$$anonfun$run$1.apply$mcV$sp(AppClient.scala:132) 
     at org.apache.spark.util.Utils$.tryOrExit(Utils.scala:1119) 
     at org.apache.spark.deploy.client.AppClient$ClientEndpoint$$anon$2.run(AppClient.scala:124) 
     at java.util.concurrent.Executors$RunnableAdapter.call(Executors.java:471) 
     at java.util.concurrent.FutureTask.runAndReset(FutureTask.java:304) 
     at java.util.concurrent.ScheduledThreadPoolExecutor$ScheduledFutureTask.access$301(ScheduledThreadPoolExecutor.java:178) 
     at java.util.concurrent.ScheduledThreadPoolExecutor$ScheduledFutureTask.run(ScheduledThreadPoolExecutor.java:293) 
     at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1145) 
     at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:615) 
     at java.lang.Thread.run(Thread.java:745) 
15/10/05 20:14:37 INFO DiskBlockManager: Shutdown hook called 
15/10/05 20:14:37 INFO ShutdownHookManager: Shutdown hook called 
15/10/05 20:14:37 INFO ShutdownHookManager: Deleting directory /tmp/spark-c5a4a63b-3dc5-4c52-bd2b-e6df22a0c19f 
+0

Sto avendo un problema simile. Sei riuscito a risolvere questo? – vyakhir

risposta

0

Si prega di verificare la variabile SPARK_CLUSTER_URL in config/config.py.

SPARK_CLUSTER_URL = "spark://Master_Ip:7077" 

PS: Master_Ip è l'indirizzo IP del master, non il nome host.

0

Non hai inserito correttamente l'URL principale di Spark. Potrebbe essere perché l'errore del maiuscolo. Utilizzare questo comando per assicurarsi che il percorso di hibench.spark.master nel file conf/99-user_defined_properties.conf sia corretto. Dovresti essere in grado di connetterti a Spark-shell eseguendo il seguente comando.

MASTER=<YOUR-SPARK-MASTER-URL-HERE> bin/spark-shell 

In modalità stand-alone della Spark questo URL dovrebbe essere simile:

spark://<master-machine-IP>:7077 

Generalmente è meglio usare l'indirizzo IP del nodo Master al posto del nome host alfabetica che viene fornito dal maestro scintilla es. spark://Macs-MacBook-Pro.local:7077

1

Ho sostituito l'IP principale con il suo nome host nel comando spark-submit e questo errore è stato risolto.

--master "spark://hostname:7077"

Problemi correlati