Я использую Apache Beam для написания некоторых потоковых конвейеров.Одним из требований для моего...
У меня есть приложение для потоковой передачи с искровым структурированием (прослушивание kafka),...
Я пытаюсь запустить простую запись данных в пример ElasticSearch. Тем не менее, я получаю эту...
Использование Spark Streaming для чтения и обработки сообщений от Kafka и записи в HDFS - Hive. Так...
В моем приложении я получаю Array[String] из потока и передаю его методу (в качестве параметра...
Я новичок в программировании потокового воспроизведения. как я могу отобразить результат и...
Когда я создаю поток данных в искре для входящих данных из kafka, я получаю следующее...
Сценарий - у меня есть 1 тема с 2 разделами с разными наборами данных, скажем, A, B. Я знаю, что...
Я пытаюсь выполнить запрос в Neo4j, используя соединитель Neo4j-Spark. Я хочу передать значения из...
Попытка выяснить, как экспортировать данные из HDFS, которые выводятся заданием Apache Spark...
У меня есть тема Kakfa, в которой данные хранятся в формате JSON. Я написал код потокового...
Нашел несколько идей для Scala, но не смог реализовать на Java с успехом, поэтому опубликовал как...
Я просматривал примеры преобразования из строки JSON, полученной от Кафки, в объект JSON. Я нашел...
Я почти уверен, что не существует простого способа сделать это, но вот мой вариант использования: У...
Я новичок в Искра Потоковое программирование, пожалуйста, кто-нибудь объясните мне, в чем проблема...
Я использую Kafka Producer и Spark Consumer. Я хочу передать некоторые данные в теме в виде массива...
Мне нужно прочитать зашифрованное сообщение из темы Кафки.Мой текущий код, который читает строки из...
Я пытаюсь создать производителя Kafka, связанного с потребителем Spark. Производитель работает...
У меня есть следующий код: - case class event(imei: String, date: String, gpsdt: String,dt: String...
У меня есть работающая UDF, которая создает побочный эффект, отправляет сообщение kafka в avro,...
Я пытаюсь построить конвейер etl, используя pyspark и kafka.Мне нужно сохранить потоки для будущих...