Questa è una domanda comune, ma su Google questo dà un sacco di schifezze.
Trasferimento di dati di grandi dimensioni tra server veloci
come volumi di dati sono sempre più in alto, tutti insieme con potenza di elaborazione & funzionalità cloud, stiamo assistendo ad un crescente bisogno di tecnologie di trasmissione veloce dei dati in grado di scatenare la potenza di tutti questi dati disponibili attraverso la diffusione/movimento/condivisione attraverso diversi server/client.
Nel nostro caso, stiamo registrando dati binari in tempo reale (50 concerti al giorno) e dobbiamo caricarlo/scaricarlo ogni giorno da/per gli abbonati (sì, tutto è necessario localmente da ciascun server di sottoscrizione, per l'informatica e vari dati roba analisi)
Quindi, per mettere Manca poco, quali sono le scelte disponibili oggi per trasferire molti concerti di dati veramente veloce tra le finestre server remoti (VPS, Nube, con un "abbastanza" bandwitdth coerente - (fibra ottica messa da parte))
Questa è una domanda aperta. Ogni idea è benvenuta indipendentemente dal protocollo.
penso che questo potrebbe essere più adatto per i programmatori? – Thousand
Come vengono memorizzati i dati? –
Conosco CloudOpt, che sembra essere una soluzione interessante (http://www.cloudopt.com/). Sono curioso di sapere quali altre tecnologie/configurazioni recenti hanno da offrire –