2014-07-11 23 views
13

Sto utilizzando Hive 0.12 e sto provando il JDBC da apache. Quando provo a eseguire il codice, ottengo apache.thrift.TApplicationException.Il campo obbligatorio "client_protocol" non è impostato

import java.sql.SQLException; 
import java.sql.Connection; 
import java.sql.ResultSet; 
import java.sql.Statement; 
import java.sql.DriverManager; 

public class HiveJdbcClient { 
private static String driverName = "org.apache.hive.jdbc.HiveDriver"; 

/** 
* @param args 
* @throws SQLException 
*/ 
public static void main(String[] args) throws SQLException { 
    try { 
     Class.forName(driverName); 
    } catch (ClassNotFoundException e) { 
     // TODO Auto-generated catch block 
     e.printStackTrace(); 
     System.exit(1); 
    } 
    //replace "hive" here with the name of the user the queries should run as 
    Connection con =  DriverManager.getConnection("jdbc:hive2://localhost:10000/default", "hive", ""); 
    Statement stmt = con.createStatement(); 
    String tableName = "testHiveDriverTable"; 
    stmt.execute("drop table if exists " + tableName); 
    stmt.execute("create table " + tableName + " (key int, value string)"); 
    // show tables 
    String sql = "show tables '" + tableName + "'"; 
    System.out.println("Running: " + sql); 
    ResultSet res = stmt.executeQuery(sql); 
    if (res.next()) { 
     System.out.println(res.getString(1)); 
    } 
    // describe table 
    sql = "describe " + tableName; 
    System.out.println("Running: " + sql); 
    res = stmt.executeQuery(sql); 
    while (res.next()) { 
     System.out.println(res.getString(1) + "\t" + res.getString(2)); 
    } 

    // load data into table 
    // NOTE: filepath has to be local to the hive server 
    // NOTE: /tmp/a.txt is a ctrl-A separated file with two fields per line 
    String filepath = "/tmp/a.txt"; 
    sql = "load data local inpath '" + filepath + "' into table " + tableName; 
    System.out.println("Running: " + sql); 
    stmt.execute(sql); 

    // select * query 
    sql = "select * from " + tableName; 
    System.out.println("Running: " + sql); 
    res = stmt.executeQuery(sql); 
    while (res.next()) { 
     System.out.println(String.valueOf(res.getInt(1)) + "\t" + res.getString(2)); 
    } 

    // regular hive query 
    sql = "select count(1) from " + tableName; 
    System.out.println("Running: " + sql); 
    res = stmt.executeQuery(sql); 
    while (res.next()) { 
     System.out.println(res.getString(1)); 
    } 
} 

}

ho importato tutti i vasi necessari, e quando provo a fare funzionare il mio codice, ottengo il seguente errore:

org.apache.thrift.TApplicationException: Required field 'client_protocol' is unset! Struct:TOpenSessionReq(client_protocol:null) 

Come posso risolvere questo problema?

+1

Ho risolto, l'errore era in hive-jdbc. Era 0.13, l'ho modificato a 0.12 (sto eseguendo l'hive 0.12) – user3782579

+0

Nel mio caso cambiandolo a 0.12 sta dando Il campo obbligatorio 'serverProtocolVersion' non è impostato! [collegamento alla mia domanda postata] (http://stackoverflow.com/questions/27614723/server-protocol-version-is-unset-hive-jdbc) – Count

+0

ha funzionato per me. mi stavo connettendo usando beeline da hive14 (perché per alcune ridicole ragioni non è possibile scaricare versioni precedenti dal sito Web di Hive), mentre il nostro prod cluster funziona sull'hive 12 e si stava verificando questo errore. Alla fine ho copiato i binari dell'alveare da prod e il mio pc e ha funzionato! – Kranach

risposta

11

Ha lo stesso problema. Funziona se si imposta

hive JDBC Maven Repo versione come 1.1.0.

Controlla questa jira. La più recente versione di hive-jdbc non è supportata con HIve 0.13. https://issues.apache.org/jira/browse/HIVE-6050

Aggiungi questo nel tuo pom.

<dependency> 
    <groupId>org.apache.hive</groupId> 
    <artifactId>hive-jdbc</artifactId> 
    <version>1.1.0</version> 
    <classifier>standalone</classifier> 
</dependency> 
19

Ciò indica una mancata corrispondenza della versione tra client e server, vale a dire che il client è più recente del server, che è il tuo caso.

0

Ragazzi anche io di fronte lo stesso problema e andare alla soluzione facendo le seguenti operazioni

Fase 01: - Includere i barattoli lib hive vostro Eclipse (che mai potrebbe essere l'IDE) utilizzando il link sottostante.

http://mirrors.supportex.net/apache/hive/hive-1.0.1/ (apache-alveare-1.0.1-bin.tar.gz)

Fase 02: aggiungere hadoop-core-1.1.0 vaso

come tutti menzionato questo errore si verifica a causa della versione mancata corrispondenza con hasdoop standalone e hadoop core.

Problemi correlati