Questa è una bella domanda di noob.Problemi nella creazione di una semplice applicazione SparkSQL
Sto cercando di conoscere SparkSQL. Ho seguito l'esempio descritto qui: http://spark.apache.org/docs/1.0.0/sql-programming-guide.html
Tutto funziona bene nella Spark-shell, ma quando provo ad usare SBT per costruire una versione batch, ottengo il seguente messaggio di errore: object sql is not a member of package org.apache.spark
Purtroppo, sono piuttosto nuovo a sbt, quindi non so come correggere questo problema. Sospetto di dover includere dipendenze aggiuntive, ma non riesco a capire come.
Ecco il codice che sto cercando di compilare:
/* TestApp.scala */
import org.apache.spark.SparkContext
import org.apache.spark.SparkContext._
import org.apache.spark.SparkConf
case class Record(k: Int, v: String)
object TestApp {
def main(args: Array[String]) {
val conf = new SparkConf().setAppName("Simple Application")
val sc = new SparkContext(conf)
val sqlContext = new org.apache.spark.sql.SQLContext(sc)
import sqlContext._
val data = sc.parallelize(1 to 100000)
val records = data.map(i => new Record(i, "value = "+i))
val table = createSchemaRDD(records, Record)
println(">>> " + table.count)
}
}
L'errore viene segnalato nella riga in cui cerco di creare uno SqlContext.
Ecco il contenuto del file SBT:
name := "Test Project"
version := "1.0"
scalaVersion := "2.10.4"
libraryDependencies += "org.apache.spark" %% "spark-core" % "1.0.0"
resolvers += "Akka Repository" at "http://repo.akka.io/releases/"
Grazie per l'aiuto.
La prego di rispondere alla tua domanda utilizzando il tuo sezione risposta? La community di sbt su StackOverflow apprezzerebbe molto. –