SQLite dovrebbe essere in grado di gestire questa quantità di dati. Tuttavia, potrebbe essere necessario configurarlo per consentirgli di crescere fino a questa dimensione e non si dovrebbero avere così tanti dati in un'istanza "in memoria" di SQLite, solo su principi generali.
Per ulteriori dettagli, vedere this page che spiega i limiti pratici del motore SQLite. Le impostazioni di configurazione rilevanti sono le dimensioni della pagina (normalmente 64 KB) e il conteggio delle pagine (fino a un valore massimo int di 64 bit di circa 2,1 miliardi). Fai i conti, e l'intero database può occupare più di 140 TB. Un database costituito da una singola tabella con 700 milioni di righe sarebbe dell'ordine di decine di concerti; facilmente gestibile.
Tuttavia, solo perché SQLite PU CAN memorizzare molti dati non significa che DOVREI. Il più grande svantaggio di SQLite per i datastores di grandi dimensioni è che il codice SQLite viene eseguito come parte del processo, utilizzando il thread su cui è chiamato e occupando la memoria nella sandbox. Non si ottengono gli strumenti disponibili nei DBMS orientati al server per "dividere e conquistare" query o archivi di dati di grandi dimensioni, come la replica/clustering. Nell'affrontare una tabella di grandi dimensioni come questa, l'inserimento/eliminazione richiederà molto tempo per inserirlo nel posto giusto e aggiornare tutti gli indici. La selezione PUO essere vivibile, ma solo nelle domande indicizzate; una scansione di una pagina o di una tabella ti ucciderà assolutamente.
La portabilità è sopravvalutata. – jason