Привет всем, вот мой код, я пытаюсь настроить spark как потребитель kafka, но у меня возникла исключительная ошибка, первая проблема, связанная с привязкой веб-интерфейса к 0.0.0.0 или nat ip: 4040, которую я не могу найти во второй проблеме браузерая напишу это внизу спасибо за вашу помощь:
######################################################## "" "
import org.apache.spark.sql.functions._ import org.apache.spark.sql.SparkSession объектTeal расширяет приложение {val spark = SparkSession .builder () .master ("local []") .appName ("teal") .getOrCreate () import spark.implicits._ val df = spark.readStream .format ("kafka") //.setMaster("local[] ") .option (" kafka.bootstrap.servers "," 127.0.0.1:9090 ") .option (" подписаться "," тест ") .load() df.selectExpr ("CAST (ключ AS STRING)", "CAST (значение AS STRING)") .as [(String, String)] val query = df.writeStream .outputMode ("complete") .format ("console ") .start ()}
######################################################################### "
вопрос: Исключение в три разаd "main" org.apache.spark.sql.AnalysisException: не удалось найти источник данных: kafka.Пожалуйста, разверните приложение согласно разделу «Руководство по интеграции структурированной потоковой передачи + Kafka» .;в org.apache.spark.sql.execution.datasources.DataSource $ .lookupDataSource (DataSource.scala: 652) в org.apache.spark.sql.streaming.DataStreamReader.load (DataStreamReader.scala: 161)