Eseguo un sito di condivisione di immagini con oltre 1 milione di immagini (~ 150 GB). Attualmente sto memorizzandoli su un disco rigido nel mio server dedicato, ma sto rapidamente esaurendo lo spazio, quindi mi piacerebbe trasferirli su Amazon S3.Spostamento di 1 milione di file di immagine su Amazon S3
Ho provato a fare un RSYNC e ci sono voluti RSYNC in un giorno solo per scansionare e creare l'elenco dei file di immagine. Dopo un altro giorno di trasferimento, è stato completato solo al 7% e ho rallentato il mio server fino alla scansione, quindi ho dovuto annullare.
C'è un modo migliore per fare questo, come GZIP su un altro disco rigido locale e quindi trasferire/decomprimere quel singolo file?
Mi chiedo anche se abbia senso archiviare questi file in più sottodirectory o è bello avere tutti i milioni + file nella stessa directory?
questo non è programmazione relativa. – Alan
Si potrebbe semplicemente eseguirlo di notte quando il server non è così occupato. Inoltre c'è lo strumento "bello" che potrebbe ridurre il tuo problema di lentezza. Poiché rsync può essere configurato per saltare i duplicati, la velocità migliorerà alla fine. Sicuramente dividerei le immagini in sottodirectory dato che molti comandi di Linux iniziano a fallire una volta che ottieni> 100.000 file. Un altro problema, puoi esaurire gli inode se hai troppi file. –