Questo è un esempio di codice di lavoro:org.apache.spark.SparkException: Task non serializzabile
JavaPairDStream<String, String> messages = KafkaUtils.createStream(javaStreamingContext, zkQuorum, group, topicMap);
messages.print();
JavaDStream<String> lines = messages.map(new Function<Tuple2<String, String>, String>() {
@Override
public String call(Tuple2<String, String> tuple2) {
return tuple2._2();
}
});
ottengo l'errore qui sotto:
ERROR:
org.apache.spark.SparkException: Task not serializable
at org.apache.spark.util.ClosureCleaner$.ensureSerializable(ClosureCleaner.scala:166)
at org.apache.spark.util.ClosureCleaner$.clean(ClosureCleaner.scala:158)
at org.apache.spark.SparkContext.clean(SparkContext.scala:1435)
at org.apache.spark.streaming.dstream.DStream.map(DStream.scala:438)
at org.apache.spark.streaming.api.java.JavaDStreamLike$class.map(JavaDStreamLike.scala:140)
at org.apache.spark.streaming.api.java.JavaPairDStream.map(JavaPairDStream.scala:46)
Beh, se funziona è grande :). In caso contrario, è possibile attivare il debug della serializzazione Java con '-Dsun.io.serialization.extendedDebugInfo = true'. –
Grazie, non va bene, ci ho provato. JavaDStream linee = messages.map (nuova funzione , String>() { @Override chiamata public String (Tuple2 tuple2) { ritorno tuple2._2(); } }); Questa riga di problemi di codice. –
Abbastanza sicuro che questo codice sia Java e non Scala (vale a dire il tag) – SparkleGoat