Вопросы с тегом апаш-искра - PullRequest

Вопросы с тегом апаш-искра

1 голос
1 ответ

Я хочу преобразовать двойной счет в целое число.Я попробовал искробезопасный квантователь, но он...

Sparrow Jack / 24 июня 2019
0 голосов
0 ответов

Я новичок в структурированной потоковой передаче.я хочу знать об инкрементной проверке, указывающей...

Akul Sharma / 23 июня 2019
0 голосов
0 ответов

Я использую Dstream для приложения, и размер пакета всегда одинаков.Первоначально каждая партия...

Yurogini / 23 июня 2019
0 голосов
0 ответов

Я хочу вытащить данные из кафки в спарк, простой пример из спарк документов. Но при выполнении:...

Nishad Nazar / 23 июня 2019
2 голосов
1 ответ

Я использую искровой код с использованием процессора Nifi ExecuteSparkInteractive, и я вижу, что...

Ajay Ahuja / 23 июня 2019
0 голосов
0 ответов

Я потребляю твиты для Кафки-продюсера, а затем поглощаю их для Кафки-потребителя.Я могу заставить...

sebm / 22 июня 2019
5 голосов
1 ответ
0 голосов
0 ответов

Я должен выполнить проверку поиска моего исходного DF.Есть около 10 проверок поиска, которые мне...

Shivhar / 22 июня 2019
0 голосов
0 ответов

У меня есть кластер EMR, который будет запускать долго работающее приложение Spark через действие...

user3613290 / 21 июня 2019
0 голосов
0 ответов

Я пытался загрузить тот же файл .csv (~ 601MB) в кадр данных pandas, а также в кадр данных spark

Shiki.E / 21 июня 2019
1 голос
0 ответов

Эксперты, я сталкиваюсь со странной проблемой, когда мое соединение PySpark из 2-х фреймов данных...

Sidd / 21 июня 2019
1 голос
1 ответ

Скажем, у меня есть некоторые потоковые данные схемы следующим образом: uid: string ts: timestamp...

Tomato / 21 июня 2019
0 голосов
0 ответов

Мне нужно прочитать файл JSON из s3, который сжимается как gzip дважды.Это из-за ошибки, но нужно...

ABHINAV GARG / 21 июня 2019
2 голосов
1 ответ

Я использую потоковую передачу искры и хочу сохранить каждую партию потоковой передачи искры в...

lucy / 21 июня 2019
1 голос
0 ответов

Я хочу найти среднее значение между каждым фреймом окна количества аналогичной системы с...

MINGIGNIM / 21 июня 2019
1 голос
1 ответ

У нас есть OutOfMemoryError в задаче, приводящей к гибели исполнителя. Успешно выполненные задачи,...

Arthur PICHOT UTRERA / 21 июня 2019
1 голос
1 ответ

Я хочу загрузить все записи из темы кафки, используя spark, но все примеры, которые я видел,...

Андрей Козицкий / 21 июня 2019
1 голос
1 ответ

val SCHEMA : Schema = .... dStream.map(b => deserialize(bytes)) def deserialize(b: Array[Byte]):...

lucy / 21 июня 2019
1 голос
2 ответов

Я хочу добавить некоторые параметры в мое приложение spark & ​​Kafka для записи Dataframe в тему...

Mounir Hamdane / 21 июня 2019
3 голосов
1 ответ

Мне нужно привести столбец фрейма данных, содержащий значения в виде всей строки к определенным...

Etisha / 21 июня 2019
0 голосов
1 ответ

У меня RDD как Array[(a, b), (a, c), (a, d)]. Я хочу отобразить его как ((a, b), 1), ((a, c), 1),...

Vishwanath Dc / 21 июня 2019
1 голос
0 ответов

Я новичок в Скале. Я пытаюсь записать вывод в файл, используя sparkJob. Сгенерированные файлы имеют...

ConfusedProgrammer / 21 июня 2019
0 голосов
2 ответов

У меня есть данные, как показано ниже ----------------------------- place | key | weights...

gunturu mahesh / 21 июня 2019
0 голосов
0 ответов

Я новичок в скале и искре.Мне нужны некоторые предложения, поскольку я борюсь со множеством ошибок....

user3868051 / 21 июня 2019
2 голосов
0 ответов
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...