Ho un'applicazione CLI per la trasformazione di JSON. La maggior parte del codice è map
ping, flatMap
ping e attraversa con for
elenchi di valori J. Ora voglio portare questa applicazione a Spark, ma sembra che ho bisogno di riscrivere tutte le funzioni 1: 1, ma scrivere RDD[JValue]
anziché List[JValue]
.Treat Spark RDD come plain Seq
Esiste un modo (come la classe del tipo) per la funzione di accettare elenchi e RDD.
La firma del metodo della mappa su Elenco e su RDD non è la stessa, quindi questo sarà un problema. Potresti essere in grado di seguire un approccio tipico e definire il tuo wrapper per la loro mappa, fornendo un'istanza per entrambi. Se potessi definire le istanze di scalaz monad e traverse per RDD potresti essere in grado di usarle. – Daenyth
Penso che non ci dovrebbero essere problemi con il functor. Ma a prima vista RDD non regge le leggi Monad. – chuwy
Se RDD non obbedisce alle leggi monade, non sarà possibile FlatMap con la classe di caratteri scalaz. Detto questo potresti essere in grado di implementare una versione che non obbedisce alle leggi e potrebbe * funzionare * per le tue esigenze specifiche. Simile a fornire ValidationFlatMap – Daenyth