Вопросы с тегом апаш-искра - PullRequest

Вопросы с тегом апаш-искра

0 голосов
0 ответов

Я использую KafkaUtils.createDirectStream Kafka API для приема сообщений, а затем обрабатываю...

user1326784 / 14 января 2019
0 голосов
0 ответов

Я использую HBaseContext.BulkGet API в потоковой передаче. Ниже мой код. def enrichMessage(rdd:...

Indira / 14 января 2019
0 голосов
0 ответов

Я пытаюсь отправить простое приложение (написанное на Scala) с помощью spark-submit с YARN (мастер...

Nin4ikP / 13 января 2019
0 голосов
1 ответ

Мне нужно добиться чего-то похожего на: Проверка, являются ли значения в List частью String в искре

Georg Heiler / 13 января 2019
0 голосов
1 ответ

Я пытаюсь построить BlockMatrix, +---+---+---+---+ |7.0|6.0|3.0|0.0| |3.0|2.0|5.0|1.0| |9.0|4.0|0

Luke / 13 января 2019
0 голосов
1 ответ

Я использую: ЭЙ-5.20.0 Hadoop 2.8.5 Spark 2.4.0 Одна из моих работ Spark записывает данные паркета...

varshnes / 13 января 2019
0 голосов
0 ответов

Я разработал этот простой LogTransformer, расширив UnaryTransformer для применения преобразования...

Anindya Saha / 12 января 2019
0 голосов
0 ответов

Я пытаюсь записать данные из Spark (используя Databricks) в базу данных Mongo внутри Azure Cosmos...

Ayan / 12 января 2019
0 голосов
1 ответ

Я пытаюсь записать обработанные данные в папку HDFS. Я получаю запись данных в папку HDFS после...

BigD / 12 января 2019
0 голосов
0 ответов

Я выполняю сценарий, используя пряжу spark-shell --master, как показано ниже У меня есть текстовый...

Sumit Pawar / 12 января 2019
0 голосов
1 ответ

Spark 2.4 представил новые полезные функции Spark SQL, включающие массивы, но я был немного...

datapug / 12 января 2019
0 голосов
1 ответ

Я работаю над двумя CSV-файлами для объединения данных и создания JSON Payload с использованием...

Tushar Kesarwani / 12 января 2019
0 голосов
1 ответ

У меня есть поток изменений Mongo (приложение pymongo), который постоянно получает изменения в...

Bharath Bharath / 12 января 2019
0 голосов
2 ответов

Я использую следующий потребительский код в Spark для чтения из темы Кафки: val df = spark .read

Aadith / 12 января 2019
0 голосов
3 ответов

У меня есть 2 больших набора данных. Первый набор данных содержит около 130 миллионов записей....

user2597100 / 12 января 2019
0 голосов
1 ответ

Я работаю с правильным синтаксисом и структурой для следующей проблемы. У меня есть два набора...

Vishaal Kalwani / 11 января 2019
0 голосов
1 ответ

У меня есть эта ошибка в моем коде (wordCount от Kafka), скомпилированном с SBT [error]...

andrea5 / 11 января 2019
0 голосов
0 ответов

У меня есть Spark Cluster (Автономный кластер, всего 4 рабочих - каждый работник имеет 16 ядер....

vishy / 11 января 2019
0 голосов
0 ответов

Я часто использую dataframe.show () для вывода табличных данных на консоль в удобочитаемой форме....

cwieder / 11 января 2019
0 голосов
0 ответов

У меня есть задание Kafka Streaming Consumer, которое сохраняет данные в таблице Hive. Проблема в...

user1326784 / 11 января 2019
0 голосов
1 ответ

Я обучил несколько RNN+biLSTM моделей, которые я хочу развернуть в конвейере, состоящем из pyspark...

Tshimanga / 11 января 2019
0 голосов
0 ответов

Я пытался настроить некоторые модульные тесты, чтобы проверить логику в пользовательской реализации...

Maixy / 11 января 2019
0 голосов
0 ответов

У меня большой стол (около 300 ГБ) и баран около (50 ГБ) и 8 процессоров. Я хочу переместить свою...

user1871528 / 11 января 2019
0 голосов
3 ответов

У меня есть приложение для потокового воспроизведения, которое запускается в конце дня и использует...

Ajith Kannan / 11 января 2019
0 голосов
0 ответов
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...