Ho una grande quantità di dati da mantenere sincronizzati su 4 o 5 siti in tutto il mondo, circa mezzo terabyte in ciascun sito. Questo cambia (o aggiunge o cambia) di circa 1,4 Gigabyte al giorno, e i dati possono cambiare in uno qualsiasi dei quattro siti.Qual è il modo migliore per sincronizzare grandi quantità di dati in tutto il mondo?
Una grande percentuale (30%) dei dati è pacchetti duplicati (forse JDK impacchettati), quindi la soluzione dovrebbe includere un modo di rilevare il fatto che ci sono cose che si trovano sul computer locale. e prendili invece di scaricare da un altro sito.
Il controllo del controllo delle versioni non è un problema, questo non è un codice base per-se.
Mi interessa solo se ci sono soluzioni (preferibilmente open-source) che si avvicinino a una cosa del genere?
Il mio script bambino con rsync non taglia più la senape, mi piacerebbe fare una sincronizzazione più complessa e intelligente.
Grazie
Edit: Questo dovrebbe essere basata su UNIX :)
Questo è * quasi * giusto, e in particolare mi piace il collegamento al sito web. Con Unison, non guarda prima il filesystem locale per la soluzione, ad esempio nella directory padre o in una directory sorella (mi piacerebbe anche definirlo). Se dimensioni, nome, mod-time, checksum sono gli stessi, afferralo invece ... – Spedge
Perché non usi invece i link per questo, invece di replicare questi JDK e quant'altro? Non sembra giusto preoccuparsi di duplicare cose che certamente non hanno bisogno di duplicazione. Unison sincronizzerà i collegamenti ... in modo che funzionino, e allevi alcune delle esigenze di spazio e alcuni mal di testa –