Sto cercando di utilizzare R per analizzare file di sequenze di DNA di grandi dimensioni (file fastq, diversi gigabyte ciascuno), ma l'interfaccia standard R per questi file (ShortRead) deve leggere l'intero file in una sola volta. Questo non si adatta alla memoria, quindi provoca un errore. C'è un modo in cui posso leggere alcune (migliaia) righe alla volta, inserirle in un file in memoria e quindi usare ShortRead per leggere da quel file in memoria?C'è un modo per leggere e scrivere file in memoria in R?
Sto cercando qualcosa di simile di Perl IO :: scalare, per R.
In realtà, non penso di poter risolvere il mio problema con questo: la funzione in questione (readFastq) vuole un file * nome *, quindi non sono sicuro di poter passare una connessione arbitraria. –
Penso che quello che stai cercando sia descritto nelle risposte a questo post: http://stackoverflow.com/questions/1727772/quickly-reading-very-large-tables-as-dataframes-in-r/1820610 I specialmente come la soluzione sqldf. –