Örneği [Databricks] [1] 'den yeniden üretmeye çalışıyorum ve bunu yeni bağlantıya kafka ve kıvılcım yapılandırılmış akışa uyguladım, ancak kıvılcımdaki kutudan çıkma yöntemlerini kullanarak jsonu doğru bir şekilde ayrışamıyorum.Kafka ile from_json 0.10 ve Spark Structured Streaming nasıl kullanılır?
not: konu kafon'a json biçiminde yazılmıştır.
val ds1 = spark
.readStream
.format("kafka")
.option("kafka.bootstrap.servers", IP + ":9092")
.option("zookeeper.connect", IP + ":2181")
.option("subscribe", TOPIC)
.option("startingOffsets", "earliest")
.option("max.poll.records", 10)
.option("failOnDataLoss", false)
.load()
Aşağıdaki kod çalışmaz, ben
val df = ds1.select($"value" cast "string" as "json")
.select(from_json("json") as "data")
.select("data.*")
Herhangi bir ipucu ... kolon json bir dize ve yöntem from_json imzası eşleşmiyor çünkü inanıyoruz?
[GÜNCELLEME] Örnek çalışma: https://github.com/katsou55/kafka-spark-structured-streaming-example/blob/master/src/main/scala-2.11/Main.scala
Eğer derleyici uyarı var ithalat Benim için soru – user1459144
anlamaya ek 5-10 dakika götürdü spark.implicits._ hakkında unutmayın "değeri $ ... üye değildir" eğer hangi kütüphane "from_json" isimli işlevi sağlıyor? Bunun yerine görünemiyorum! Yardım lütfen .. – Gyan
@Raghav -> import org.apache.spark.sql.functions._ Örneğinizi kontrol edin: https://github.com/katsou55/kafka-spark-structured-streaming-example/blob/ ana/src/ana/scala-2.11/Main.scala –