Il mio file build.sbt
ha questo:Impossibile caricare la classe per l'origine dati: com.databricks.spark.csv
scalaVersion := "2.10.3"
libraryDependencies += "com.databricks" % "spark-csv_2.10" % "1.1.0"
Sono in esecuzione Spark in modalità cluster standalone e la mia SparkConf è SparkConf().setMaster("spark://ec2-[ip].compute-1.amazonaws.com:7077").setAppName("Simple Application")
(non sto usando il metodo setJars
, non sono sicuro se ne ho bisogno).
Imballaggio del vaso utilizzando il comando sbt package
. Il comando che uso per eseguire l'applicazione è ./bin/spark-submit --master spark://ec2-[ip].compute-1.amazonaws.com:7077 --class "[classname]" target/scala-2.10/[jarname]_2.10-1.0.jar
.
In esecuzione di questo, ottengo questo errore:
java.lang.RuntimeException: Failed to load class for data source: com.databricks.spark.csv
Qual è il problema?
Come si impacchetta il barattolo? –
@JustinPihony 'sbt package' – kamalbanga
@kamalbanga cosa significa? Se non vuoi accettare alcuna risposta, cancella la tua domanda! – eliasah