2015-08-09 17 views
7

Ho creato un cluster spark standalone sul mio laptop, quindi vado in una console sbt su un progetto spark e provo ad incorporare un'istanza spark come così:Spark Error: Impossibile inizializzare la classe org.apache.spark.rdd.RDDOperationScope

val conf = new SparkConf().setAppName("foo").setMaster(/* Spark Master URL*/) 
val sc = new SparkContext(conf) 

Fino a lì tutto funziona bene, poi cerco

sc.parallelize(Array(1,2,3)) 
// and I get: java.lang.NoClassDefFoundError: Could not initialize class org.apache.spark.rdd.RDDOperationScope$ 

come posso risolvere questo problema?

+1

Le versioni di Spark sono compatibili? –

+0

Sì, sono entrambi 1.4.1 – zunior

+0

Come hai risolto il problema precedente? Sto riscontrando lo stesso problema con 1.4.1 – skgemini

risposta

3

forse ti sei perso seguendo lib.

<dependency> 
     <groupId>com.fasterxml.jackson.core</groupId> 
     <artifactId>jackson-databind</artifactId> 
     <version>2.4.4</version> 
    </dependency> 
Problemi correlati