To jest przykład kodu robocze:org.apache.spark.SparkException: Zadanie nie serializable
JavaPairDStream<String, String> messages = KafkaUtils.createStream(javaStreamingContext, zkQuorum, group, topicMap);
messages.print();
JavaDStream<String> lines = messages.map(new Function<Tuple2<String, String>, String>() {
@Override
public String call(Tuple2<String, String> tuple2) {
return tuple2._2();
}
});
otrzymuję poniższy błąd:
ERROR:
org.apache.spark.SparkException: Task not serializable
at org.apache.spark.util.ClosureCleaner$.ensureSerializable(ClosureCleaner.scala:166)
at org.apache.spark.util.ClosureCleaner$.clean(ClosureCleaner.scala:158)
at org.apache.spark.SparkContext.clean(SparkContext.scala:1435)
at org.apache.spark.streaming.dstream.DStream.map(DStream.scala:438)
at org.apache.spark.streaming.api.java.JavaDStreamLike$class.map(JavaDStreamLike.scala:140)
at org.apache.spark.streaming.api.java.JavaPairDStream.map(JavaPairDStream.scala:46)
dobrze, jeśli to działa to świetnie :). Jeśli tak nie jest, możesz włączyć debugowanie serializacji Java za pomocą opcji '-Dsun.io.serialization.extendedDebugInfo = true'. –
Dziękuję, nie jest dobrze, próbowałem. JavaDStream linie = messages.map (nowa funkcja , String>() { @Override publiczne wezwanie String (Tuple2 tuple2) { tuple2._2 return(); } }); Ta linia problemów z kodem. –
Całkiem pewien, że ten kod to Java, a nie Scala (to znaczy tag). – SparkleGoat