7
Ho creato un cluster spark standalone sul mio laptop, quindi vado in una console sbt su un progetto spark e provo ad incorporare un'istanza spark come così:Spark Error: Impossibile inizializzare la classe org.apache.spark.rdd.RDDOperationScope
val conf = new SparkConf().setAppName("foo").setMaster(/* Spark Master URL*/)
val sc = new SparkContext(conf)
Fino a lì tutto funziona bene, poi cerco
sc.parallelize(Array(1,2,3))
// and I get: java.lang.NoClassDefFoundError: Could not initialize class org.apache.spark.rdd.RDDOperationScope$
come posso risolvere questo problema?
Le versioni di Spark sono compatibili? –
Sì, sono entrambi 1.4.1 – zunior
Come hai risolto il problema precedente? Sto riscontrando lo stesso problema con 1.4.1 – skgemini