Uso Spark 1.3.0 in un cluster di 5 nodi worker con 36 core e 58 GB di memoria ciascuno. Mi piacerebbe configurare il cluster Standalone di Spark con molti esecutori per lavoratore.Come allocare più esecutori per lavoratore in modalità cluster autonomo?
Ho visto il SPARK-1706 unito, tuttavia non è immediatamente chiaro come configurare effettivamente più esecutori.
Ecco l'ultima configurazione del cluster:
spark.executor.cores = "15"
spark.executor.instances = "10"
spark.executor.memory = "10g"
Queste impostazioni sono impostate su una SparkContext
quando l'applicazione Spark è presentata al cluster.
Questo mi consente di eseguire più _workers_ per nodo fisico con 1 executor per worker. 'SPARK-1706' sembra indicare che ora dovrebbe essere possibile eseguire 1 worker per nodo fisico con più executor. Sai come eseguire questa configurazione? – Rich
Oh, vedo che ho letto male i tempi di quella PR. Pensavo che fosse stato fuso l'anno scorso, non questo mese. Sembra che potrebbe non essere disponibile fino a Spark 1.4 – Rich
@Rich Attualmente, 1 nodo avrà 1 Worker, che è responsabile dell'avvio e della gestione di più Executor, non è responsabile della gestione dei nostri lavori. Il termine "lavoratore" che hai usato può riferirsi a Executor, perché le persone che usano hadoop e spark possono usare quel termine per indicare l'unità che esegue il lavoro. – ngtrkhoa