val lines: RDD[String] = sc.textFile("/tmp/inputs/*")
val tokenizedLines = lines.map(Tokenizer.tokenize)
nello snippet di codice precedente, la funzione token può restituire stringhe vuote. Come faccio a saltare aggiungendolo alla mappa in quel caso? o rimuovere le voci vuote post aggiungendo alla mappa?Rimozione di stringhe vuote dalle mappe in scala
fa questo filtro il risultato o rimuoverli? Sono entusiasta di rimuoverli. – Siva
Il filtro restituisce una nuova raccolta senza stringhe vuote. – akagroundhog
quando stampo il filtro post delle righe tokenizzate, ha ancora stringhe vuote nel buffer di array. Mi manca qualcosa in più? – Siva