Вопросы с тегом апаш-искра - PullRequest

Вопросы с тегом апаш-искра

0 голосов
0 ответов

Я получаю эту ошибку при выполнении большого количества запросов Spark SQL.В запросах много...

Prashant / 26 февраля 2019
0 голосов
0 ответов

У меня есть таблица columnstore в MemSQL, схема которой аналогична приведенной ниже: CREATE TABLE...

VarunG / 26 февраля 2019
0 голосов
1 ответ

Я пытаюсь портировать приложение Apache Flink (scala) на структурированную потоковую передачу Spark

user826955 / 26 февраля 2019
0 голосов
0 ответов

Spark RDD имеет вариацию снижения, называемую treeReduce, которая очень эффективна, поскольку...

rakesh / 26 февраля 2019
0 голосов
1 ответ

У меня есть библиотечная функция, которая возвращает составной объект, содержащий генераторы,...

StackG / 26 февраля 2019
0 голосов
1 ответ

У меня есть файл, разделенный запятыми, без заголовка, с различным количеством элементов в каждой...

Samer Ayoub / 26 февраля 2019
0 голосов
0 ответов

У меня есть задание Apache Spark, которое записывает набор данных паркета в хранилище BLOB-объектов...

pdist / 26 февраля 2019
0 голосов
0 ответов

Не удалось выполнить задание My Spark Streaming со следующим исключением Диагностика: Контейнер...

yAsH / 25 февраля 2019
0 голосов
0 ответов

Я записываю свой фрейм данных искровой потоковой передачи в виде файла паркета в моей HDFS.Я создал...

BigD / 25 февраля 2019
0 голосов
1 ответ

Я работаю с потоковой передачей и не хочу обрабатывать старые файлы, когда новый потоковый файл...

b2ooba / 25 февраля 2019
0 голосов
1 ответ

Использование PySpark. Follow : я думаю, что мне нужно только знать, как выбрать n элементы после...

Tony / 25 февраля 2019
0 голосов
0 ответов

Я использую разорванный канал (¦), значение ascii = \ u00A6, в качестве разделителя при сохранении...

Kumar Ashish / 25 февраля 2019
0 голосов
1 ответ

У меня есть приложение Spark Streaming, которое считывает имена таблиц Hive в записях Kafka,...

Srijit / 25 февраля 2019
0 голосов
0 ответов

Я пытаюсь настроить поступление данных Кафки в реальном времени в HBase через PySpark в...

thedbogh / 25 февраля 2019
0 голосов
0 ответов

Я провел следующий эксперимент. Запрос 1: select f1, f2 from A where id = 10 limit 1 | f1 | f2 |...

Joe C / 25 февраля 2019
0 голосов
1 ответ

Я бы хотел использовать концепцию потоковой обработки для чтения файлов из локального каталога и...

Indira / 25 февраля 2019
0 голосов
1 ответ

Использование Pyspark 2.2 У меня есть спарк DataFrame с несколькими столбцами.Мне нужно ввести 2...

Wynn / 25 февраля 2019
0 голосов
1 ответ

Следующий код можно использовать для фильтрации строк, которые содержат значение 1. На изображении...

thebluephantom / 25 февраля 2019
0 голосов
1 ответ

Я пытаюсь настроить Hive on Spark на одной маленькой виртуальной машине (4 ГБ ОЗУ), но не могу...

Bořivoj Vlk / 24 февраля 2019
0 голосов
0 ответов

Общий обзор моей цели: мне нужно найти файл (ы) (они в формате JSON), которые содержат определенный...

fletchr / 24 февраля 2019
0 голосов
1 ответ

У меня есть RDD как List((a,b),(b,c)) List((d,e)) Как я могу получить его как (a,b) (b,c) (d,e) Я...

user3607109 / 24 февраля 2019
0 голосов
1 ответ

У меня есть сценарий, где нужно выполнить запрос для каждой записи из кадра данных.Я бегу в...

GKrish / 24 февраля 2019
0 голосов
0 ответов

Я использую Apache Toree ядро ​​scala для Jupyter Notebook, в котором используется конфигурация...

Radu Oleanu / 24 февраля 2019
0 голосов
1 ответ

Это может быть глупый вопрос, но я не могу понять, как файлы распределяются по разделам.Мое...

Shashank V C / 24 февраля 2019
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...