2015-12-11 9 views
6

che sto cercando di fare questo nel test di unità:Utilizzando TestHiveContext/HiveContext in unit test

val sConf = new SparkConf() 
    .setAppName("RandomAppName") 
    .setMaster("local") 
val sc = new SparkContext(sConf) 
val sqlContext = new TestHiveContext(sc) // tried new HiveContext(sc) as well 

ma ottengo questo:

[scalatest] Exception encountered when invoking run on a nested suite - java.lang.RuntimeException: Unable to instantiate org.apache.hadoop.hive.metastore.HiveMetaStoreClient *** ABORTED *** 
[scalatest] java.lang.RuntimeException: java.lang.RuntimeException: Unable to instantiate org.apache.hadoop.hive.metastore.HiveMetaStoreClient 
[scalatest] at org.apache.hadoop.hive.ql.session.SessionState.start(SessionState.java:346) 
[scalatest] at org.apache.spark.sql.hive.client.ClientWrapper.<init>(ClientWrapper.scala:120) 
[scalatest] at org.apache.spark.sql.hive.HiveContext.executionHive$lzycompute(HiveContext.scala:163) 
[scalatest] at org.apache.spark.sql.hive.HiveContext.executionHive(HiveContext.scala:161) 
[scalatest] at org.apache.spark.sql.hive.HiveContext.<init>(HiveContext.scala:168) 
[scalatest] at org.apache.spark.sql.hive.test.TestHiveContext.<init>(TestHive.scala:72) 
[scalatest] at mypackage.NewHiveTest.beforeAll(NewHiveTest.scala:48) 
[scalatest] at org.scalatest.BeforeAndAfterAll$class.beforeAll(BeforeAndAfterAll.scala:187) 
[scalatest] at mypackage.NewHiveTest.beforeAll(NewHiveTest.scala:35) 
[scalatest] at org.scalatest.BeforeAndAfterAll$class.run(BeforeAndAfterAll.scala:253) 
[scalatest] at mypackage.NewHiveTest.run(NewHiveTest.scala:35) 
[scalatest] at org.scalatest.Suite$class.callExecuteOnSuite$1(Suite.scala:1491) 

il codice funziona perfettamente quando corro con scintilla: inviare, ma non nei test unitari. Come posso risolvere questo problema con i test unitari?

risposta

2

Si tratta di una vecchia questione, ma mi sono imbattuto in problemi simili, ho finito per usare spark-testing-base:

import com.holdenkarau.spark.testing.SharedSparkContext 
import org.apache.spark.sql.hive.test.TestHiveContext 
import org.scalatest.FunSuite 

class RowToProtoMapper$Test extends FunSuite with SharedSparkContext { 

    test("route mapping") { 
     val hc = new TestHiveContext(sc) 
     /* Some test */ 
    } 
} 
+0

Nel mio caso ho puntatore nullo Eccezione alla riga in cui ho 'val HC = new TestHiveContext (sc) ' – Explorer