Вопросы с тегом апаш-искра - PullRequest

Вопросы с тегом апаш-искра

0 голосов
1 ответ

У меня около 700 ГБ данных, которые я читаю из HDFS при каждом запуске задания Spark. Моя работа...

GothamGirl / 16 января 2019
0 голосов
0 ответов

У меня есть оригинальный фрейм данных с несколькими столбцами, чтобы упростить их: product_id,...

iluvex / 16 января 2019
0 голосов
1 ответ

Мой набор данных ~ 20 миллионов строк, занимает ~ 8 ГБ ОЗУ. Я выполняю свою работу с 2...

VB_ / 16 января 2019
0 голосов
1 ответ

В настоящее время я пытаюсь использовать структурированную потоковую передачу в Scala Spark Shell....

Markus Wilhelm / 16 января 2019
0 голосов
1 ответ

Написал следующий UDF с целью заставить его обрабатывать случай, когда один параметр не определен....

scalacode / 16 января 2019
0 голосов
1 ответ

У меня есть набор данных, который я хочу записать, отсортированный в файлы паркета, чтобы...

mly / 16 января 2019
0 голосов
0 ответов

Привет всем: я обнаружил проблему в своем кластере с искровым потоком. Мы собираем потребителя,...

Gavin Gu / 16 января 2019
0 голосов
1 ответ

Разрабатывая новый проект ML с помощью Spark, мы хотим сначала сгладить входные данные, чтобы иметь...

Rolintocour / 16 января 2019
0 голосов
1 ответ

У меня есть данный кусок кода. Я запускаю это на Spark 2.3.1, используя Zeppelin 0.8.0 и org.apache

ferdyh / 16 января 2019
0 голосов
1 ответ

У меня есть два класса scala как часть моей работы на spark-sql, то есть Driver.scala и...

Shyam / 16 января 2019
0 голосов
0 ответов

4 исполнителя.и 35 данных раздела, нет перекоса данных.на этапе mapWithState существует 10 задач,...

belle tian / 16 января 2019
0 голосов
0 ответов

Я использую Spark JDBC для подключения к таблице MySQL. Когда он читает таблицу, схема содержит все...

guru107 / 16 января 2019
0 голосов
0 ответов

Мы сталкиваемся с ошибкой No space on device при выполнении заданий Spark в нашем кластере YARN....

summerbulb / 16 января 2019
0 голосов
0 ответов

Доступна ли вкладка потоковой передачи для готовых приложений потокового воспроизведения. Можем ли...

Bharghavi Vajrala / 16 января 2019
0 голосов
1 ответ

У меня есть работающее приложение, которое запрашивает таблицу кустов, используя HiveContext, и оно...

Ajith Kannan / 16 января 2019
0 голосов
2 ответов

После прочтения некоторых технических статей говорят, что датафрейм знает только имя столбца, но не...

Wayne / 16 января 2019
0 голосов
0 ответов

Я пытаюсь получить максимальное, среднее для всех строк за последние x минут (например, 10 минут)...

Chetan N / 16 января 2019
0 голосов
1 ответ

Я хочу выполнить поиск по сетке для моей модели случайного леса в Apache Spark. Но я не могу найти...

Regressor / 16 января 2019
0 голосов
0 ответов

есть ли у spark возможность записывать большие файлы (несколько G байтов) в openstack swift...

BAE / 15 января 2019
0 голосов
1 ответ

Рассмотрим сценарий, в котором Spark (или любая другая среда Hadoop) считывает большой (скажем, 1...

rogue-one / 15 января 2019
0 голосов
1 ответ

У меня есть следующий сценарий на моем наборе данных. Мне нужно суммировать значения некоторых...

BigD / 15 января 2019
0 голосов
0 ответов

Я работаю в кластере с 3 узлами HDP (2 датода, 1 наменод) на 3 разных виртуальных машинах,...

SimbaPK / 15 января 2019
0 голосов
0 ответов

У меня есть разделенный фрейм данных, сохраненный в hdfs. Я должен периодически загружать новые...

hey_you / 15 января 2019
0 голосов
1 ответ

Я пишу файл паркета из Spark DataFrame следующим образом: df.write.parquet("path/myfile

Thomas / 15 января 2019
0 голосов
2 ответов

Я пытаюсь отфильтровать DataFrame, сравнивая два столбца даты, используя Scala и Spark. На основе...

Inna / 15 января 2019
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...