Come è possibile configurare da Java (o Scala) quantità di esecutori con SparkConfig
e SparkContext
? Vedo costantemente 2 esecutori. Sembra che spark.default.parallelism
non funzioni e riguardi qualcosa di diverso.Come impostare la quantità di esecutori Spark?
Ho solo bisogno di impostare la quantità di esecutori per essere uguale alla dimensione del cluster, ma ci sono sempre solo 2 di loro. Conosco la mia dimensione del cluster. Corro su YARN se questo è importante.
La struttura spark.default.parallelism è per il ridurre operazioni quali aderire, reduceByKey, groupBy. – Rags