2015-01-01 36 views
5

Sto usando impala con flume come filestream.Impala - file non trovato errore

Il problema è flume è l'aggiunta di file temporanei con estensione tmp, e poi quando vengono cancellati query impala non riescono con il seguente messaggio:

backend 0: Impossibile aprire il file HDFS HDFS://localhost:8020/user/hive/../FlumeData.1420040201733.tmp errore (2): Nessun file o directory

Come posso fare impala di ignorare questo file tmp, o un canale non scrivere loro, o scriverli in un'altra directory?

configurazione Flume:

### Agent2 - Avro Source and File Channel, hdfs Sink ### 
# Name the components on this agent 
Agent2.sources = avro-source 
Agent2.channels = file-channel 
Agent2.sinks = hdfs-sink 

# Describe/configure Source 
Agent2.sources.avro-source.type = avro 
Agent2.sources.avro-source.hostname = 0.0.0.0 
Agent2.sources.avro-source.port = 11111 
Agent2.sources.avro-source.bind = 0.0.0.0 

# Describe the sink 
Agent2.sinks.hdfs-sink.type = hdfs 
Agent2.sinks.hdfs-sink.hdfs.path = hdfs://localhost:8020/user/hive/table/ 
Agent2.sinks.hdfs-sink.hdfs.rollInterval = 0 
Agent2.sinks.hdfs-sink.hdfs.rollCount = 10000 
Agent2.sinks.hdfs-sink.hdfs.fileType = DataStream 
#Use a channel which buffers events in file 
Agent2.channels.file-channel.type = file 
Agent2.channels.file-channel.checkpointDir = /home/ubutnu/flume/checkpoint/ 
Agent2.channels.file-channel.dataDirs = /home/ubuntu/flume/data/ 

# Bind the source and sink to the channel 
Agent2.sources.avro-source.channels = file-channel 
Agent2.sinks.hdfs-sink.channel = file-channel 
+0

puoi provare a invalidare i metadati e provare a eseguire nuovamente le query? –

+0

Lo sto facendo - ma i file si aggiornano tra le due query –

+0

Qual è la tua configurazione Flume? – kichik

risposta

3

ho avuto questo problema una volta.

Ho aggiornato hadoop e flume e l'ho risolto. (da cloudera hadoop cdh-5.2 a cdh-5.3)

Provare a eseguire l'aggiornamento - hadoop, flume o impala.