Sto usando la sandbox hortonworks.
creando argomento:come caricare un argomento di Kafka su HDFS?
./kafka-topics.sh --create --zookeeper 10.25.3.207:2181 --replication-factor 1 --partitions 1 --topic lognew
tailing l'accesso apache directory di registro:
tail -f /var/log/httpd/access_log |./kafka-console-producer.sh --broker-list 10.25.3.207:6667 --topic lognew
In un altro terminale (di Kafka bin) avviare consumatore:
./kafka-console-consumer.sh --zookeeper 10.25.3.207:2181 --topic lognew --from-beginning
L'apa che i registri di accesso vengono inviati all'argomento kafka "nuovo registro".
Ho bisogno di memorizzarli su HDFS.
Qualsiasi idea o suggerimento su come farlo.
Grazie in anticipo.
Deepthy
Grazie per la risposta ... ** Ho provato a eseguire camus ma ho ricevuto il seguente errore: ** com.linkedin.camus.coders.MessageDecoderException: java.lang.InstantiationException: com.linkedin.camus.example. schemaregistry.DummySchemaRegistry – Deepthy
Immagino che sia necessario configurare correttamente il progetto: http://etl.svbtle.com/setting-up-camus-linkedins-kafka-to-hdfs-pipeline –
Altro che usare camus e gobblin c'è qualche altro come caricare l'argomento di kafka su hdf? – Deepthy