Se si utilizza Spark, questo è ora relativamente semplice con il rilascio di Spark 1.4 vedere il codice di esempio sotto che utilizza il pacchetto SparkR che ora fa parte del nucleo di Apache Spark struttura.
# install the SparkR package
devtools::install_github('apache/spark', ref='master', subdir='R/pkg')
# load the SparkR package
library('SparkR')
# initialize sparkContext which starts a new Spark session
sc <- sparkR.init(master="local")
# initialize sqlContext
sq <- sparkRSQL.init(sc)
# load parquet file into a Spark data frame and coerce into R data frame
df <- collect(parquetFile(sq, "/path/to/filename"))
# terminate Spark session
sparkR.stop()
Un esempio espanso è mostrato @ https://gist.github.com/andyjudson/6aeff07bbe7e65edc665
Io non sono a conoscenza di qualsiasi altro pacchetto che si potrebbe usare se non si sta utilizzando Spark.
fonte
2015-06-26 18:43:49
punto noi di un file di esempio, ci mostrano dove la specifica formato del file è, ci dicono un po 'più di "Come faccio a leggere i file in formato Foo in R? " – Spacedman
@Spacedman Scusa, ho dimenticato che il pubblico sarebbe stato più generale. Si tratta di un archivio dati colonnare auto-descrittivo che teoricamente sarebbe mappato direttamente ai frame di dati R. – metasim