Ho iniziato a esaminare Hadoop. Se ho capito bene, potrei elaborare un file molto grande e divideremo su diversi nodi, tuttavia se il file è compresso, il file non può essere diviso e il wold deve essere elaborato da un singolo nodo (distruggendo efficacemente il vantaggio di eseguire un mapreduce ver un cluster di macchine parallele).Domanda di base su Hadoop e file di input compressi
La mia domanda è, assumendo quanto sopra è corretto, è possibile dividere un file di grandi dimensioni manualmente in blocchi di dimensioni fisse, o pezzi al giorno, comprimerli e poi passare un elenco di file di input compressi per eseguire una MapReduce?
Grazie per il suono eccezionale. –