Possiedo un'applicazione Spark in esecuzione in cui occupa tutti i core in cui alle altre applicazioni non verrà assegnata alcuna risorsa.Spark Kill Running Application
Ho fatto alcune ricerche veloci e le persone hanno suggerito di usare YARN kill o/bin/spark-class per uccidere il comando. Comunque, sto usando la versione CDH e/bin/spark-class non esiste affatto, anche l'applicazione kill YARN non funziona.
Can chiunque con me con questo?
se si è in un test env: ps aux | grep spark -> prendi il pid di spark e uccidilo dalla riga di comando – eliasah
@eliasah "test env", per me il lavoro è già distribuito .. –
vuoi uccidere un lavoro in produzione ???? – eliasah