Вопросы с тегом апаш-искра - PullRequest

Вопросы с тегом апаш-искра

0 голосов
1 ответ

Я анализирую использование памяти нашим искровым приложением.Мы используем Hive и PySpark . В нашем...

mubai zhang / 18 апреля 2019
1 голос
1 ответ

Я новичок в PySpark - и у меня проблема. Я создал код, который читает файл паркета, запрашивает его...

Bramat / 18 апреля 2019
1 голос
2 ответов

Получение неожиданного результата при выполнении первой и последней агрегированных функций в Spark...

Tarun Khaneja / 18 апреля 2019
0 голосов
1 ответ

Я создал RDD с первым столбцом Key, а остальные столбцы являются значениями этого ключа. Каждый ряд...

asif / 18 апреля 2019
0 голосов
2 ответов

Итак, я пытаюсь прочитать существующий файл, сохранить его в DataFrame, как только это будет...

Adrian Sanz / 18 апреля 2019
0 голосов
0 ответов

Я использую textFileStream для обработки файлов, поступающих в каталог.Можно ли извлечь имя файла,...

Krzysztof Atłasik / 18 апреля 2019
1 голос
0 ответов

У меня есть данные о покупках с течением времени. Каждая покупка принадлежит пользователю и...

Olivier_s_j / 18 апреля 2019
1 голос
0 ответов

Я новичок в EMR и Spark Hadoop Cluster.Мне нужно загрузить библиотеку Native abcd_linux.so во время...

Raj Bhatia / 18 апреля 2019
0 голосов
0 ответов

У меня есть приложение Spark Streaming, реализованное с помощью PySpark. Я не использую...

guscht / 18 апреля 2019
0 голосов
0 ответов

Я нахожусь в процессе создания приложения pyspark, которое часто терпит неудачу и имеет много...

A.B / 18 апреля 2019
1 голос
1 ответ

Я пытаюсь создать собственный преобразователь в Spark 2.4.0.Сохранение работает нормально.Однако,...

gmds / 18 апреля 2019
1 голос
1 ответ

Я получаю данные в одной дельта-таблице и хочу, чтобы два потребителя обрабатывали ее: У меня в...

Eric Bellet / 18 апреля 2019
1 голос
0 ответов

я новичок в писпарк. Я написал программу pyspark для чтения потока kafka с помощью оконной операции

Nagesh / 18 апреля 2019
0 голосов
2 ответов

когда я запускаю import time start_time = time.time() print(df_join.count()) end_time = time.time()...

user1871528 / 18 апреля 2019
0 голосов
1 ответ

Раньше мы считывали данные в Spark 2.3, используя блоки данных со следующим кодом инициализации...

Prakhar / 18 апреля 2019
0 голосов
1 ответ

При записи данных в секционированную таблицу улья я получаю ошибку ниже.org.apache.spark

Bis / 17 апреля 2019
0 голосов
1 ответ

У меня есть два следующих кадра данных, к которым я хочу присоединиться на основе столбца A df1:...

Ross / 17 апреля 2019
0 голосов
0 ответов

Я пытаюсь настроить ParamGrid для использования перекрестной проверки позже.Но я не смог найти...

Iwan Sivoronov / 17 апреля 2019
1 голос
1 ответ

Веб-интерфейс Spark отображает отличную информацию об общем и активном количестве ядер и задач. Как...

DanJ / 17 апреля 2019
0 голосов
0 ответов

Я пытаюсь создать пустой фрейм данных и просто записать его в файл CSV. Я ожидал, что схема будет...

Jimmy Maguel / 17 апреля 2019
0 голосов
0 ответов

У меня есть черта AWSClient , которая показывает, что класс, расширяющий его, является AWSClient,...

user811602 / 17 апреля 2019
0 голосов
1 ответ

Я ломал голову об этом уже пару дней. Такое чувство, что это должно быть интуитивно легко ......

Nahko / 17 апреля 2019
0 голосов
1 ответ

Я пытаюсь создать пустой фрейм данных и добавить новый столбец.Я пытался сделать это двумя...

Holmes / 17 апреля 2019
0 голосов
0 ответов

Моя программа содержит довольно много jar-файлов, которые копируются в рабочий каталог для каждого...

MetallicPriest / 17 апреля 2019
0 голосов
1 ответ

Я выполняю задание потоковой передачи искры в моем регионе, и для одной партии требуется...

Nagesh / 17 апреля 2019
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...