import org.apache.spark._ import org.apache.spark.rdd._ import org.apache.spark.storage.StorageLevel
Процесс детализации следующим образом: загрузка потоковой передачи данных с Kafka используйте...
Я использую Spark 2.3 и пытаюсь объединить два потока данных. Мой левый и правый потоки имеют...
Я хотел бы знать, как отправить строку JSON в виде сообщения в тему kafka, используя функцию scala...
Я пишу собственный потоковый источник Spark. Я хочу поддержать сокращение столбцов. Я не могу...
У нас был пакетный процесс для выполнения операции обновления / вставки с использованием S / Spark....
Я реализовал источник MQ в структурированной потоковой передаче Spark. И я использую IBM MQ Core...
Я использую Spark 2.3.0, Scala 2.11.8 и Kafka, и я пытаюсь записать в файлы паркета все сообщения...
Я пытаюсь сделать условный взрыв в Spark Structured Streaming. Например, мой потоковый фрейм данных...
Я сталкиваюсь с некоторыми странными ошибками, когда я получаю и поглощаю сообщения кафки.Я...
Есть ли какие-либо преимущества, если использовать Flink вместо нового Spark 2.3 для потоковых...
Два Writestream для одного и того же приемника базы данных не происходят последовательно в Spark...
В задании структурированной потоковой передачи Spark 2.3.0 мне нужно добавить столбец в DataFrame,...
Я не получаю данные в мое ведро s3 и не получаю никакой ошибки.Я работаю с Spark 2.3.0 и Python.По...
Как мой код упорядочен следующим образом: //Accumulator initialized val count = new LongAccumulator...
Я пытаюсь написать собственный получатель для Structured Streaming, который будет принимать...
Я практикую реализацию собственного собственного структурированного потокового источника V2 в Java,...
Наш конвейер ETL использует искровую структурированную потоковую передачу для обогащения входящих...
в настоящее время моя структурированная потоковая передача Spark работает следующим образом...
Я пробовал и API-интерфейс spark batch, и API-интерфейс структурированной потоковой передачи, но я...
Как Spark структурированная потоковая передача сообщает приемнику, что новая строка является...
Я использую структурированную потоковую передачу в Spark 2.3.0 для записи набора данных в S3.Мой...
Как сравнить полученную запись с предыдущей записью того же ключа в искровой структурированной...
Я пытаюсь выполнить пользовательскую агрегацию при структурированной потоковой передаче с оконным...
У меня есть потоковый фрейм данных, созданный с использованием искровой структурированной потоковой...