Se avete a che fare con ELT scenario in cui si deve caricare enormi volumi di file e di processo in un secondo momento come filtro, trasformare e caricarlo di tranditional database per l'analisi, è possibile utilizzare Hadoop per caricare i file e poi Netezza come area di gestione temporanea o di data warehouse di destinazione. Con hadoop puoi mettere tutti i tuoi file in HDFS e poi leggere usando lo strumento ETL per trasformare, filtrare, ecc. O usare Hive SQL per scrivere i tuoi dati in quei file. Tuttavia, HIve data warehouse basato su hadoop non supporta gli aggiornamenti e non supporta tutte le istruzioni SQL. Quindi, è meglio leggere quei file da HDFS, applicare filtri, trasformare e caricare i risultati nell'appliance di data warehouse tradizionale come netezza per scrivere le query per i cubi.
Se si caricano quotidianamente GB di dati su netezza con landing, staging e mart area, molto probabilmente si finirà per utilizzare molto spazio. In questo scenario puoi fare in modo che il tuo spazio di atterraggio sia su hadoop e quindi rendere le aree di staging e mart come netezza. Se le tue domande sono semplici e non stai facendo un filtraggio molto complesso, ecc. O gli aggiornamenti dei sorgenti potrebbero essere gestibili con hasdoop.
Per concludere, hadoop è ideale per enormi volumi di dati ma non supporta tutte le funzionalità di un data warehouse tradizionale.
È possibile controllare questo link per vedere le differenze: http://dwbitechguru.blogspot.ca/2014/12/how-to-select-between-hadoop-vs-netezza.html
Voglio solo ricordare che le attuali velocità di caricamento su Netezza Systems sono ora 2TB +/ora. – cairnz