Вход: У меня есть следующий поток в NetCat: $ nc -l -p 5555 example1 example2 example3 example4...
Я пытаюсь найти решение для чтения данных из таблицы HBASE с использованием потоковой передачи с...
Когда я пытаюсь запустить следующее задание Spark Streaming (V 1.6), оно не потребляет никаких...
Я новичок в потоковом искре.Я разработал небольшое искровое потоковое приложение.Здесь хотите...
мой код для хранения данных в hbase.но я получаю так много ошибок.как определить df, есть ошибка,...
Я хочу сохранить датафрейм в hbase.Мой код ниже, но я получаю ошибку.Не могли бы вы помочь мне...
Я потребляю Kafka данных и затем передаю данные в HDFS. Данные, хранящиеся в Kafka теме trial,...
У меня есть задание потоковой передачи, которое выполняет следующие действия. 10 секунд - это время...
Я попробовал следующее в Jupyter, чтобы прочитать файл CSV в табличном формате. pyspark --packages...
Я разработал приложение для потоковой передачи искры (x) с прямым доступом.Я могу запустить только...
Может кто-нибудь подскажите, пожалуйста, как подключиться к HBase из спарка с помощью kerberos. Я...
При подключении к HBase из mapPartitions в потоковой передаче с плавающей точкой возникает...
Пытаюсь запустить потоковое задание Spark [Родительское задание], основываясь на некоторых условиях...
Я пытаюсь прочитать таблицу HBase из потоковой передачи Spark.Я использовал приведенный ниже код...
В настоящее время я работаю над одностраничным веб-приложением, которое позволяет пользователям...
У меня есть следующий тип данных, поступающих от потребителя Kafka (u'0:l1',...
import org.apache.spark._ import org.apache.spark.streaming._ import org.apache.spark.SparkConf...
Сначала у меня были следующие инструкции, и когда я загружал 20 000 файлов, я получал 20 000...
Пытались применить маринованную модель для прогнозирования потоковых данных.Первоначально модель...
Проработанный сценарий -> каталог HDFS, который «заполняется» новыми данными журнала о нескольких...
При попытке создать поток из текстового файла в Pyspark появляется следующая ошибка: TypeError:...
Я анализирую файл журнала для анализа воздействия на клиента с помощью Apache spark.У меня есть...
Как видно из заголовка, есть ли способ создать объект Spark org.apache.spark.streaming.api.java
У меня есть потоковое приложение Spark, которое в основном получает триггерное сообщение от Kafka,...
direct_kafka_stream = KafkaUtils.createDirectStream( ssc=ssc, topics=['pdns'],...