URL Maestro Significato
locale: Spark eseguito localmente con un thread di lavoro (cioè senza il parallelismo a tutti).
locale [K]: Eseguire Spark localmente con thread di lavoro K (idealmente, impostare questo al numero di core sulla vostra macchina).
locale [K, F]: Eseguire Spark localmente con thread di lavoro K e F maxFailures (vedi spark.task.maxFailures per una spiegazione di questa variabile)
locale [ *]: Esegui Spark localmente con tutti i thread di lavoro come core logici sulla macchina.
locale [*, F]: Eseguire Spark localmente con il maggior numero di thread di lavoro come core logici sulla vostra macchina e F maxFailures.
scintilla: // host: porta: collegare al master di cluster standalone dato Spark. La porta deve essere quella che il tuo master è configurato per utilizzare, che è 7077 per impostazione predefinita.
scintilla: // HOST1: PORT1, HOST2: PORT2: Connettersi al dato cluster standalone Spark con master in standby con Zookeeper. L'elenco deve avere tutti gli host master nel cluster ad alta disponibilità impostato con Zookeeper. La porta deve essere quella che ogni master è configurato per l'uso, che è 7077 per impostazione predefinita.
mesos: // host: porta: Connettersi al dato cluster Mesos. La porta deve essere quella che sei configurato per l'uso, che è 5050 per impostazione predefinita. Oppure, per un cluster Mesos utilizzando ZooKeeper, utilizzare mesos: // zk: // .... Per inviare con il cluster in -deploy-mode, HOST: PORT deve essere configurato per connettersi a MesosClusterDispatcher.
filato: connettersi a un cluster FILATO in modalità client o un cluster a seconda del valore di --deploy-mode. La posizione del cluster sarà trovata in base alla variabile HADOOP_CONF_DIR o YARN_CONF_DIR.
https://spark.apache.org/docs/latest/submitting-applications.html
C'è una ragione per non accettare la risposta? – gsamaras