Quando eseguo il mio lavoro Hadoop ricevo il seguente errore:errore insolito Hadoop - compiti vengono uccisi da soli
Richiesta ricevuta per uccidere compito 'attempt_201202230353_23186_r_000004_0' dall'utente Task è stato KILLED_UNCLEAN dall'utente
I registri sembrano essere puliti. Corro 28 riduttori, e questo non succede per tutti i riduttori. Succede per pochi selezionati e il riduttore ricomincia. Non riesco a capire questo. Un'altra cosa che ho notato è che per un piccolo set di dati, raramente vedo questo errore!
Il processo non funziona a causa di questo problema? Sei in esecuzione con l'esecuzione speculativa abilitata? –
Sì, l'esecuzione speculativa è impostata su true. Il lavoro non fallisce, alla fine finisce con un sacco di riduzioni kiiled/falliti che nel complesso aumentano il tempo di completamento del lavoro! – RFT
@Pradeep Gollakota Inoltre, ho notato che i riduttori che vengono uccisi o falliti una volta continuano a essere uccisi come 8-9 volte finché non riescono e i riduttori che non vengono uccisi neanche una volta sono puliti per tutto il lavoro! – RFT