2012-05-18 17 views
8

Sono di fronte a un problema nell'esecuzione di query condizionali in HiveQL. L'istruzione di base select * from tablename funziona correttamente. L'errore è:Errore di esecuzione, codice di ritorno 1 da org.apache.hadoop.hive.ql.exec.MapRedTask

Total MapReduce jobs = 1 
Launching Job 1 out of 1 
Number of reduce tasks determined at compile time: 1 
In order to change the average load for a reducer (in bytes): 
    set hive.exec.reducers.bytes.per.reducer=<number> 
In order to limit the maximum number of reducers: 
    set hive.exec.reducers.max=<number> 
In order to set a constant number of reducers: 
    set mapred.reduce.tasks=<number> 
java.net.ConnectException: Call to /0.0.0.0:8021 failed on connection exception: java.net.ConnectException: Connection refused 
     at org.apache.hadoop.ipc.Client.wrapException(Client.java:1134) 
     at org.apache.hadoop.ipc.Client.call(Client.java:1110) 
     at org.apache.hadoop.ipc.RPC$Invoker.invoke(RPC.java:226) 
     at org.apache.hadoop.mapred.$Proxy5.getProtocolVersion(Unknown Source) 
     at org.apache.hadoop.ipc.RPC.getProxy(RPC.java:398) 
     at org.apache.hadoop.ipc.RPC.getProxy(RPC.java:384) 
     at org.apache.hadoop.mapred.JobClient.createRPCProxy(JobClient.java:501) 
     at org.apache.hadoop.mapred.JobClient.init(JobClient.java:486) 
     at org.apache.hadoop.mapred.JobClient.<init>(JobClient.java:469) 
     at org.apache.hadoop.hive.ql.exec.ExecDriver.execute(ExecDriver.java:655) 
     at org.apache.hadoop.hive.ql.exec.MapRedTask.execute(MapRedTask.java:123) 
     at org.apache.hadoop.hive.ql.exec.Task.executeTask(Task.java:130) 
     at org.apache.hadoop.hive.ql.exec.TaskRunner.runSequential(TaskRunner.java:57) 
     at org.apache.hadoop.hive.ql.Driver.launchTask(Driver.java:1063) 
     at org.apache.hadoop.hive.ql.Driver.execute(Driver.java:900) 
     at org.apache.hadoop.hive.ql.Driver.run(Driver.java:748) 
     at org.apache.hadoop.hive.cli.CliDriver.processCmd(CliDriver.java:209) 
     at org.apache.hadoop.hive.cli.CliDriver.processLine(CliDriver.java:286) 
     at org.apache.hadoop.hive.cli.CliDriver.main(CliDriver.java:516) 
     at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method) 
     at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:39) 
     at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:25) 
     at java.lang.reflect.Method.invoke(Method.java:597) 
     at org.apache.hadoop.util.RunJar.main(RunJar.java:186) 
Caused by: java.net.ConnectException: Connection refused 
     at sun.nio.ch.SocketChannelImpl.checkConnect(Native Method) 
     at sun.nio.ch.SocketChannelImpl.finishConnect(SocketChannelImpl.java:574) 
     at org.apache.hadoop.net.SocketIOWithTimeout.connect(
.... 
Job Submission failed with exception 'java.net.ConnectException(Call to /0.0.0.0:8021 failed on connection exception: java.net.ConnectException: Connection refused)' 
FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.MapRedTask 

Ho provato sia da Eclipse e alveare shell .Il uscita è uguale. Per favore aiuto!

+2

Avete la soluzione ora? Anch'io devo affrontare lo stesso problema. – learninghuman

+0

Potresti trovare utile questa web app. http://sql.treasuredata.com –

risposta

3

Nella maggior parte dei casi, questo errore è causato da un problema di autorizzazioni, in cui l'utente Hive eseguire il comando non ha diritti di accesso a/user/alveare

Ti consigliamo di verificare la configurazione del Hadoop Hive cluster

1

Ho notato che con Hive2 è necessario modificare il modo in cui si specifica il numero di riduttori mentre si utilizza HiveQL. Su Hive1 ho usato:

SET mapred.reduce.tasks=1 

Tuttavia il Hive2 ho notato che ho bisogno di usare:

SET mapreduce.job.reduces=1 

Ho avuto lo stesso messaggio di errore e cambiare questo ha risolto il problema per me.

6

Questo dovrebbe risolvere il problema in quanto questa proprietà verrà impostata su true per impostazione predefinita.

set hive.auto.convert.join.noconditionaltask=false 

hive.auto.convert.join.noconditionaltask - Sia Hive abilitare la ottimizzazione sulla conversione di comune unirsi in mapjoin in base alla dimensione del file di input .

Se questa paramater è acceso, e la somma delle dimensioni per n-1 delle tabelle/partizioni per un n-way join è inferiore alla dimensione specificata, la giunzione viene direttamente convertita in un mapjoin (c'è nessun compito condizionale ).

0

Ho un'immagine di avvio rapido cloudera montata utilizzando VirtualBox. Ho dovuto effettuare le seguenti operazioni per risolvere il problema

sudo vi /etc/hive/conf/hive-site.xml e impostare la proprietà hive.auto.convert.join su false (è necessario eseguire il root per modificare e quindi il sudo).

Non avevo la proprietà hive.auto.convert.join.noconditionaltask nel hive-site.xml.xml.

Problemi correlati