2016-03-29 27 views
9

Forse questa domanda può sembrare un po 'astratto, qui è:Spark SQL: Convertire RDD [GenericData.Record] per dataframe

val originalAvroSchema : Schema = // read from a file 
val rdd : RDD[GenericData.Record] = // From some streaming source 

// Looking for a handy: 
val df: DataFrame = rdd.toDF(schema) 

esploro spark-avro ma ha il supporto solo per leggere da un file, non da esistente RDD.

+0

non so perché la risposta è stata cancellata –

+0

v'è una richiesta di pull per quello che stai cercando https://github.com/databricks/spark-avro/pull/113/files –

+0

ho cancellato la risposta, perché era stato downvoted. –

risposta

0
import com.databricks.spark.avro._ 

val sqlContext = new SQLContext(sc) 
val rdd : RDD[MyAvroRecord] = ... 
val df = rdd.toAvroDF(sqlContext) 
Problemi correlati