2010-07-12 16 views
9

Chiaramente, è possibile senza dover leggere la risorsa remota su un server locale e poi METTERLO sui server S3?È possibile caricare su S3 semplicemente fornendo un URL?

Quindi, in un certo senso, invece di trasmissione simile a questo:

S3<--(PUT DATA)--LOCAL<--(REQUEST DATA)--REMOTE_URL 

si finisce per guardare come questo.

S3<--(PUT DATA BY URL)--LOCAL 

S3<--(REQUEST DATA)--REMOTE_URL 
+0

Nel caso in cui altri lo trovino tramite Google ... è possibile * farlo tramite Azure: [Come copiare un oggetto da Amazon S3 a Windows Azure Blob Storage utilizzando "Copy Blob"] (http://gauravmantri.com)/2012/06/14/how-to-copy-un-oggetto-da-amazon-s3-per-windows-azzurro-blob-stoccaggio-utilizzando-copy-blob /) – Richard

risposta

7

Non possibile.

Amazon non offre un servizio pull per S3 e non ho visto nessun altro pubblicizzarne uno. (Però non è un'idea imprenditoriale terribile.)

Detto questo, ci sono un sacco di strumenti per aiutare con questo!

Un sacco di persone usano qualcosa come s3fs con la loro utility di backup preferita (ad esempio, cron + rsync).

Ultimamente, ho avuto un grande successo con boto e alcuni script Python personalizzati. Il motivo per cui mi piace è che si integra bene con qualsiasi altro servizio sulla scatola e fornisce aggiornamenti di stato.

Ho scritto uno script di shell che avvia un'istanza EC2, si collega tramite SSH, ha la casella EC2 per scaricare i dati da un sito FTP al suo disco locale e quindi caricare i nuovi dati su S3.

Problemi correlati