Sto facendo un progetto studentesco che prevede la creazione e l'interrogazione di un cluster di dati Cassandra.Cassandra timeout cqlsh query large (ish) quantità di dati
Quando il carico del mio cluster era leggero (circa 30 GB) le mie query si sono svolte senza problemi, ma ora che è un po 'più grande (1/2 TB) le mie query scadono.
ho pensato che questo problema potrebbe sorgere, quindi prima di iniziare la generazione e la prova di caricamento dei dati avevo cambiato questo valore nel mio file cassandra.yaml:
request_timeout_in_ms (Default: 10000) Il timeout predefinito per altre, operazioni varie.
Tuttavia, quando ho modificato tale valore su 1000000, quindi cassandra sembrava sospesa all'avvio - ma quello poteva essere solo il grande timeout al lavoro.
Il mio obiettivo per la generazione di dati è 2 TB. Come posso interrogare quel grande spazio senza incorrere in timeout?
query:
SELECT huntpilotdn
FROM project.t1
WHERE (currentroutingreason, orignodeid, origspan,
origvideocap_bandwidth, datetimeorigination)
> (1,1,1,1,1)
AND (currentroutingreason, orignodeid, origspan,
origvideocap_bandwidth, datetimeorigination)
< (1000,1000,1000,1000,1000)
LIMIT 10000
ALLOW FILTERING;
SELECT destcause_location, destipaddr
FROM project.t2
WHERE datetimeorigination = 110
AND num >= 11612484378506
AND num <= 45880092667983
LIMIT 10000;
SELECT origdevicename, duration
FROM project.t3
WHERE destdevicename IN ('a','f', 'g')
LIMIT 10000
ALLOW FILTERING;
Ho uno spazio delle chiavi demo con gli stessi schemi, ma di dimensioni molto più piccole dei dati (~ 10GB) e queste query funzionano bene in questo spazio delle chiavi.
Tutte queste tabelle interrogate contengono milioni di righe e circa 30 colonne in ogni riga.
di poter postare un esempio di query? – Aaron