Ci sono alcune opzioni per accedere alle librerie R in Spark:Utilizzando R in Apache Spark
- utilizzando direttamente sparkr
- utilizzando binding di linguaggio come rpy2 o
rscala
- utilizzando il servizio stand-alone come opencpu
Sembra che lo SparkR sia piuttosto limitato, OpenCPU richiede di mantenere il servizio aggiuntivo e le associazioni possono avere sta problema di flessibilità. C'è qualcos'altro specifico nell'architettura Spark che rende l'utilizzo di qualsiasi soluzione non facile.
Hai qualche esperienza con l'integrazione di R e Spark che puoi condividere?
Pensi che OpenCPU non sia una buona opzione? –
@CafeFeed Non ho esperienza con esso. – lgautier