У меня есть ситуация, когда я собирал данные из кинесиса AWS для запуска Apache по потоковой...
Как мой код упорядочен следующим образом: //Accumulator initialized val count = new LongAccumulator...
Я реализовал Spark Streaming, который получает данные от Kafka.Существует RDD, который загружает...
Я новый поток искр.Я понял, что размер окна должен быть кратным интервалу пакета.Но как работает...
У меня есть приложение структурированной потоковой передачи, и агрегация окна происходит в данных,...
У меня есть IoT-концентратор, получающий двоичные данные, которые я хотел бы прочитать из...
Я смотрю на этот пример искры: https://spark.apache.org/docs/latest/streaming-programming-guide
Я работаю над сценарием использования, когда мне нужно постоянно собирать и обрабатывать информацию...
мы выполняем несколько заданий одновременно, используя оболочку spark (используя версию 2.1)....
Я пытаюсь Spark Streaming базовое программирование., import org.apache.spark.SparkConf import org
Я пытаюсь запустить потоковую работу искры на оболочке искры, localhost.Следуя коду из здесь , это...
Я использую Apache Spark в своем проекте Java, результат работы программы появляется только при...
У меня есть следующий код: import java.text.SimpleDateFormat import java.util.Calendar import scala
Я могу установить Apache spark с заданным набором команд на ubuntu 16 : dpkg -i scala-2.12.1.deb...
У меня есть приложение Spark Structured Streaming, которое получает сообщения Kafka.Для каждого...
Я использую потоковую передачу искры и хочу создать аккумулятор, который будет подсчитывать...
У меня есть задание spark streaming (2.1), работающее в режиме кластера, и я продолжаю сталкиваться...
val conf = new SparkConf(true) .setAppName("Streaming Example")
Я интегрировал Spark Streaming Process с Kafka, чтобы прочитать конкретную тему. Создан Spark...
Я видел апрельскую статью о дураках, похоже, что spark не может работать на устройствах Android....
Я запускаю программу потокового воспроизведения, которая подключается к DatahighWay, и она работает...
Я использую потоковую передачу с помощью Spark на основе файлов и хочу удалить старые файлы с диска
У меня есть следующий код: val conf = new SparkConf() .setAppName("KafkaReceiver")