Вопросы с тегом апаш-искра - PullRequest

Вопросы с тегом апаш-искра

0 голосов
1 ответ

Мне нужно создать схему, используя существующее поле df. Рассмотрим пример этого кадра данных...

stack0114106 / 03 января 2019
0 голосов
1 ответ

У меня есть два источника данных (оба файла csv), один из них является источником входящих данных...

Trinadh Gupta / 03 января 2019
0 голосов
1 ответ

Я хочу использовать функцию Spark Slice с началом и длиной, определенной как Column (s). def...

Guillaume G / 03 января 2019
0 голосов
1 ответ

У меня есть CSV-файл с событиями согласно таблице ниже. +-------------------+-------+ |Created...

Marcelino Santos / 03 января 2019
0 голосов
0 ответов

если у меня есть фрейм данных Spark, я могу при записи очень легко разбить данные на несколько...

SiLaf / 03 января 2019
0 голосов
1 ответ
0 голосов
1 ответ

Я вставляю в внешний улей паркетный стол из Spark 2.1 (используя df.write.insertInto(...)....

Raphael Roth / 03 января 2019
0 голосов
3 ответов

В API Apache Spark я могу использовать функцию startsWith для проверки значения столбца:...

alexanoid / 03 января 2019
0 голосов
0 ответов

У меня есть 2 исполнителя, и они используют 4 ядра каждое с 3 ГБ памяти. Я получаю ответ за 1,9...

Fahad Khan / 03 января 2019
0 голосов
0 ответов

У меня очень большая коллекция записей JSON, организованная следующим образом для HDFS: / год /...

kyrre / 03 января 2019
0 голосов
1 ответ

Следующий синтаксис: def func0(x: Int => Int, y: Int)(in: DataFrame): DataFrame = { in

thebluephantom / 03 января 2019
0 голосов
1 ответ

Я получаю исключение при использовании foreachRDD для обработки данных в формате CSV. Вот мой код...

BigD / 03 января 2019
0 голосов
0 ответов

Я разработал искровое приложение, которое выполняет следующие шаги: Считывает данные в определенном...

aksjain / 03 января 2019
0 голосов
1 ответ

у меня следующий набор данных: col1_id, col2_id, type 1 t1_1 t1 1 t1_2 t1 2 t2_2 t2 col1_id &...

Karan Alang / 03 января 2019
0 голосов
1 ответ

Недавно я изучаю масштабируемое машинное обучение, и Spark MLlib - это первый инструмент, который я...

Coding_Rabbit / 03 января 2019
0 голосов
1 ответ

У меня есть вложенные данные JSON с вложенными полями, которые я хочу извлечь и построить карту...

user2727704 / 03 января 2019
0 голосов
0 ответов

Мое задание зажигания работает нормально при отправке в локальный кластер искр ( spark-2.3

BAE / 03 января 2019
0 голосов
1 ответ

Я пытаюсь использовать несколько запросов для записи в разные приемники в спарк.Первый запрос...

Praneeth Ramesh / 02 января 2019
0 голосов
1 ответ
0 голосов
0 ответов

Я пытаюсь запустить задание apache spark sql (1.6) в локальном режиме на кластере из 3 узлов, и у...

user1708054 / 02 января 2019
0 голосов
1 ответ

Я использую Spark в Google Cloud для обработки данных из Google Analytics, но я не знаю, как...

dlmonteirog / 02 января 2019
0 голосов
2 ответов

У меня есть следующая программа spark, которую я пытаюсь запустить, целью которой является...

user1638818 / 02 января 2019
0 голосов
1 ответ

Я использую коннектор Apache Spark для Azure Cosmos DB для хранения фрейма данных в scala на...

John / 02 января 2019
0 голосов
0 ответов

Я хотел выполнить асинхронную работу на рабочих, но аккумуляторы не применяются на стороне драйвера...

Ohad Bitton / 02 января 2019
0 голосов
1 ответ

Кажется, есть несколько сообщений по этому вопросу, но ни одна из них не отвечает тому, что я...

thebluephantom / 02 января 2019
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...