Вопросы с тегом apache-искра - PullRequest

Вопросы с тегом apache-искра

0 голосов
1 ответ

Есть ли какой-нибудь правильный способ передачи сложных зависимостей в spark с использованием...

Arli Chokoev / 07 февраля 2019
0 голосов
2 ответов

Я загрузил все строки из таблицы в набор данных, используя сеанс spark в Java.Я хочу получить...

Reshma Raveendran / 07 февраля 2019
0 голосов
2 ответов

Я занимаюсь разработкой универсального приложения Spark, которое прослушивает поток Kafka с...

tinkerbeast / 07 февраля 2019
0 голосов
1 ответ

Ранее я успешно подключился к кластеру Elasticsearch напрямую из Python со следующим кодом:...

LaserJesus / 07 февраля 2019
0 голосов
0 ответов

Я использую spark 2.2.0 для процесса ETL, а mlllib StringIndexer создает невидимое исключение метки...

o11306650 / 07 февраля 2019
0 голосов
0 ответов

Когда я говорю все виды пробелов, я имею в виду пробел или пробел.Таким образом, эта строка может...

Brian Gurka / 07 февраля 2019
0 голосов
1 ответ

Следующее дает мне исключение TypeError: Column is not iterable: from pyspark.sql import functions...

NYCeyes / 06 февраля 2019
0 голосов
0 ответов

При записи набора данных в паркет произошла следующая ошибка. data.write()

Sanket M / 06 февраля 2019
0 голосов
1 ответ

Я портирую через приложение Python на Java и застрял на правильном пути реализации лямбда flatMap()

MrBabbels / 06 февраля 2019
0 голосов
0 ответов

Я использую Java с Spark.Мне нужно создать набор данных Tuple2 путем объединения двух отдельных...

Ann / 05 февраля 2019
0 голосов
1 ответ

У меня есть CSV-файл, который я загружаю через спарк.Я хочу разделить хорошие и плохие записи, а...

PRASANTA / 05 февраля 2019
0 голосов
1 ответ

Я установил искру на какой-либо машине, чтобы использовать ее в автономном режиме кластера.Так что...

Iulian / 05 февраля 2019
0 голосов
2 ответов

Я использую spark 2.4.0 в Google Cloud Compute Engine с CentOS 6 и 3,75 ГМ памяти.Когда я пытался...

Parijat Bose / 05 февраля 2019
0 голосов
1 ответ

Я использую pyspark для сохранения фрейма данных в виде файла паркета или в виде файла csv с этим:...

someguy / 05 февраля 2019
0 голосов
2 ответов

Даем попробовать в Pyspark и боремся. У меня есть это здесь ... internal_pct_by_day = df_resampled

Frankie / 05 февраля 2019
0 голосов
1 ответ

Я пишу код pyspark для обработки некоторых данных spark-sql. В прошлом месяце все работало отлично,...

xinwei li / 04 февраля 2019
0 голосов
3 ответов

Имеется источник данных с полями: product_id - product - start_time - end_time Я пытаюсь построить...

Vzzarr / 04 февраля 2019
0 голосов
0 ответов

Я получаю события из темы Кафки и предварительно агрегирую их перед сохранением в Elastic Search

alina / 04 февраля 2019
0 голосов
1 ответ

Учитывая следующий набор данных: | title | start | end | bla | 10 | 30 Я хотел бы найти разницу...

JBoy / 04 февраля 2019
0 голосов
1 ответ

Я пытаюсь отправить свое приложение PySpark в режиме кластера, и при отправке приложения я получаю...

Rahul / 04 февраля 2019
0 голосов
1 ответ

Я пытаюсь запустить простую функцию mllib (fpgrowth) из Java с удаленного компьютера в версии...

m scorpion / 04 февраля 2019
0 голосов
2 ответов

Я пытаюсь проанализировать CSV-файл, полученный с компьютера с Windows, на компьютере с Linux,...

Laura Webster / 03 февраля 2019
0 голосов
1 ответ

Перед публикацией этого вопроса я искал сообщество и ссылался на документы pyspark, но до сих пор...

SivaTP / 03 февраля 2019
0 голосов
2 ответов

Я пытаюсь взять столбец в Spark (используя pyspark) со строковыми значениями, такими как «A1», «C2»...

schmidtbit / 03 февраля 2019
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...