Supponiamo di avere un numero molto elevato di directory (ad esempio 100.000
) nel mio file system e all'interno di ciascuna directory c'è un numero simile di directory. Ogni directory può contenere qualsiasi numero di file, ma in genere non più di pochi. Questa struttura va a una profondità costante (10
).Qual è la complessità temporale della lettura di un file da un filesystem Linux?
La mia domanda è che è una differenza di tempo di complessità (nell'operazione di lettura) se ho letto in un file da questa struttura di directory come: /dir-34/dir-215/dir-345/file1
usando Paths.get()
rispetto alla lettura di un file formano un semplice file di sistema come questo:
/dir1
/dir2
/dir3
file1
/dir4
file2
Nota: Questa è solo una questione teorica voglio solo sapere se il numero di directory/file nella directory sto cercando di aprire un file da ha alcun effetto sulla velocità di operazione di lettura.
Non è chiaro cosa stai confrontando qui. In entrambi i casi sembra che tu abbia una struttura di directory nidificata ... –
Inoltre, per "complessità temporale" intendi big-O o qualcosa del genere, o stai semplicemente parlando di "run time"? –
100.000 dirs e ciascuno (!) Contiene 100.000 - e questo a un livello di 10? Googol? – laune