Ho due cluster, uno nella macchina virtuale locale un altro nel cloud remoto. Entrambi i cluster in modalità Standalone.Come inviare il codice a un cluster Spark remoto da IntelliJ IDEA
mio ambiente:
Scala: 2.10.4
Spark: 1.5.1
JDK: 1.8.40
OS: CentOS Linux release 7.1.1503 (Core)
Il cluster locale:
Spark Master: scintilla: // local1: 7077
Il cluster remoto:
Spark Master: spark: // remote1: 707 7
Voglio finire questo:
codici di scrittura (solo semplice word-count) in IntelliJ IDEA localmente (sul mio laptp), e impostare l'URL Spark Maestro spark://local1:7077
e spark://remote1:7077
, quindi eseguire il mio codici in IntelliJ IDEA. Cioè, non voglio usare spark-submit
per inviare un lavoro.
Ma ho avuto qualche problema:
Quando uso il cluster locale, tutto va bene. Esegui codici in IntelliJ IDEA o usa spark-submit può inviare un lavoro al cluster e può completare il lavoro.
ma quando uso il cluster remoto, ho ottenuto nel registro un avviso:
TaskSchedulerImpl: lavoro iniziale non ha accettato alcuna risorsa; controllare la vostra interfaccia utente cluster per garantire che i lavoratori siano registrati e di risorse sufficienti
È risorse sufficienti non sufficiente memoria!
E questo registro continua a stampare, senza ulteriori azioni. Entrambi i codici spark-submit
ed eseguire i codici in IntelliJ IDEA risultano uguali.
Voglio sapere:
- E 'possibile inviare i codici da per IntelliJ IDEA cluster remoto?
- Se è OK, ha bisogno di configurazione?
- Quali sono i possibili motivi che possono causare il mio problema?
- Come posso gestire questo problema?
Grazie mille!
Aggiornamento
c'è una domanda simile here, ma penso che la mia scena è diversa. Quando eseguo i miei codici in IntelliJ IDEA e imposta Spark Master
nel cluster di macchine virtuali locali, funziona. Ma ho ricevuto l'avviso Initial job has not accepted any resources;...
.
Desidero sapere se la politica di sicurezza oi fuochi d'artificio possono causare questo?
Possibile duplicato di [Esecuzione del codice spark su eclipse con la scintilla installata su un altro server] (http://stackoverflow.com/questions/33591481/running-spark-code-on-eclipse-with-spark-being-install -on-altro-server) –
@AlbertoBonsanto Ma quell'altro post (che è il tuo) * non * mostra come eseguire direttamente da IJ: richiede la costruzione del jar e l'uso di 'spark-submit'. – javadba