2013-04-22 11 views

risposta

3

Data Pipeline è un servizio utilizzato per trasferire dati tra vari servizi di AWS. Esempio è possibile utilizzare DataPipeline per leggere i file di registro da EC2 e spostarli periodicamente su S3.

Il servizio Simple Workflow è un servizio molto potente. È possibile scrivere anche la logica del flusso di lavoro che lo utilizza. Esempio: la maggior parte dei sistemi di e-commerce presenta problemi di scalabilità nei propri sistemi di ordini. È possibile utilizzare il codice di scrittura in SWF per rendere questo processo di flusso di lavoro di ordinazione stesso.

5

Da http://aws.amazon.com/datapipeline/faqs/

D: Come è AWS dati Pipeline diverso da Amazon Simple Workflow Service?

Mentre entrambi i servizi offrono il monitoraggio dell'esecuzione, Riprova e capacità di gestione delle eccezioni, e la possibilità di eseguire arbitrari azioni, AWS dati Pipeline è specificamente progettato per agevolare le passi specifici che sono comuni attraverso una maggioranza di data-driven Flussi di lavoro - inparticolare, esecuzione delle attività dopo i dati di input soddisfa i criteri specifici di disponibilità, copiando facilmente i dati tra diversi archivi dati e pianificando le trasformazioni concatenate. Questo particolare valore di messa a fuoco specifica significa che è possibile creare le definizioni del flusso di lavoro [con] molto rapidamente e senza alcun codice o conoscenza di programmazione.

Problemi correlati