Ho un cluster Spark con 10 nodi, e sto ottenendo questa eccezione dopo aver utilizzato il contesto Spark per la prima volta:intermittente Timeout Eccezione usando Spark
14/11/20 11:15:13 ERROR UserGroupInformation: PriviledgedActionException as:iuberdata (auth:SIMPLE) cause:java.util.concurrent.TimeoutException: Futures timed out after [120 seconds]
Exception in thread "main" java.lang.reflect.UndeclaredThrowableException: Unknown exception in doAs
at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1421)
at org.apache.spark.deploy.SparkHadoopUtil.runAsSparkUser(SparkHadoopUtil.scala:52)
at org.apache.spark.executor.CoarseGrainedExecutorBackend$.run(CoarseGrainedExecutorBackend.scala:113)
at org.apache.spark.executor.CoarseGrainedExecutorBackend$.main(CoarseGrainedExecutorBackend.scala:156)
at org.apache.spark.executor.CoarseGrainedExecutorBackend.main(CoarseGrainedExecutorBackend.scala)
Caused by: java.security.PrivilegedActionException: java.util.concurrent.TimeoutException: Futures timed out after [120 seconds]
at java.security.AccessController.doPrivileged(Native Method)
at javax.security.auth.Subject.doAs(Subject.java:415)
at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1408)
... 4 more
Questa guy hanno avuto un problema simile, ma Ho già provato la sua soluzione e non ha funzionato.
La stessa eccezione si verifica anche con here ma il problema non è lo stesso qui in quanto sto utilizzando la versione 1.1.0 della scintilla sia nel master che nello slave e nel client.
Ho provato ad aumentare il timeout a 120s ma ancora non risolve il problema.
Sto caricando l'ambiente attraverso gli script e sto utilizzando context.addJar per includere il mio codice nel classpath. Questo problema è intermittente, e non ho alcuna idea su come tenere traccia del perché sta accadendo. Qualcuno ha affrontato questo problema durante la configurazione di un cluster di scintilla sapere come risolverlo?
Poiché questa è la migliore risposta in google, per riferimento futuro, il timeout di rpc può verificarsi senza configurazione firewall/rete, se il lavoro si blocca per periodo configurato, ovvero 120 secondi in spark 2.0. Ho questo problema ora e alla ricerca di una soluzione diversa dall'aumento del timeout. – halil