Вопросы с тегом апаш-искра - PullRequest

Вопросы с тегом апаш-искра

0 голосов
1 ответ

У меня есть файл данных csv, как указано ниже, каждая строка завершается возвратом каретки ('\ r') ...

Chirag Karnawat / 13 декабря 2018
0 голосов
3 ответов

Я использую искру на scala. И у меня есть несколько пустых строк в Rdd.Мне нужно удалить их из Rdd....

Patty / 13 декабря 2018
0 голосов
4 ответов

Я пытаюсь создать линию данных, в которой несоответствующие данные сохраняются в паркете, и я...

Ajith Kannan / 13 декабря 2018
0 голосов
1 ответ

у меня есть кадр данных из обрабатывающей части, выглядит следующим образом:...

SimbaPK / 13 декабря 2018
0 голосов
1 ответ

Я пытаюсь прочитать несколько файлов по разным путям одновременно.На сервере sql путь "/mapr/ia1

Cathy / 13 декабря 2018
0 голосов
1 ответ

Я пытаюсь записать фрейм данных, который содержит около 230 миллионов записей для Кафки.В частности...

silent / 13 декабря 2018
0 голосов
0 ответов

Я пытаюсь создать индекс на Postgres Table через Spark, а код выглядит следующим образом: val df3 =...

Hadoop User / 13 декабря 2018
0 голосов
1 ответ

Это примерно transform функция высшего порядка (https://issues.apache.org/jira/browse/SPARK-23908)....

MitakaJ9 / 13 декабря 2018
0 голосов
1 ответ

Я выполнил задание, используя spark-submit, в то время как мы потеряли исполнителя и определенную...

G Sreenathreddy / 13 декабря 2018
0 голосов
0 ответов

Я пытаюсь понять, как Spark управляет планом выполнения этапов в задании.Я проверил много контента...

YACINE GACI / 13 декабря 2018
0 голосов
0 ответов

Итак, в настоящее время у меня есть таблица, похожая на эту userID, day, itemID 1, 1, A 1, 1, B 2,...

Tang Dexian / 13 декабря 2018
0 голосов
2 ответов

Вот мой вложенный JSON-файл. { "dc_id": "dc-101", "source": {...

Sayan Sahoo / 13 декабря 2018
0 голосов
1 ответ

Я видел из двух источников, что сейчас вы не можете каким-либо осмысленным образом...

Vishaal Kalwani / 13 декабря 2018
0 голосов
3 ответов

У меня есть два строковых столбца, разделенных запятыми (sourceAuthors и targetAuthors). val df =...

itgtzortz / 13 декабря 2018
0 голосов
1 ответ

Я использую Spark Structured Streaming с Spark 2.3.1 и ниже мой код: val sparkSession =...

RagVaG / 12 декабря 2018
0 голосов
1 ответ

Это пример файла JSON.Я хочу сделать это в целом, например, если у меня есть корневые теги, то как...

Sayan Sahoo / 12 декабря 2018
0 голосов
2 ответов

У меня есть СДР с двумя элементами (идентификатор, дата).Со следующей структурой: data=sc

Pedro Alves / 12 декабря 2018
0 голосов
2 ответов

Pcollection<String> p1 = {"a","b","c"} PCollection<...

cpchung / 12 декабря 2018
0 голосов
0 ответов

У нас есть большой набор данных, состоящий из нескольких миллионов записей, а затем обрабатывающий...

Prashant / 12 декабря 2018
0 голосов
1 ответ

У меня есть один или несколько CSV-файлов, которые мне нужно объединить в pyspark: файл 1: c1,c2,c3...

user1997656 / 12 декабря 2018
0 голосов
1 ответ

Я хотел бы знать ответ на следующий вопрос. Как обрабатывается СДР, если ни один из исполнителей не...

kiran kumar Mudradi / 12 декабря 2018
0 голосов
1 ответ

У меня есть сценарий, в котором датафрейм имеет data_date, как показано ниже root |-- data_date:...

Shyam / 12 декабря 2018
0 голосов
0 ответов

Я знаю, что block - это базовая единица хранения, а partition - базовая единица вычислений в Spark....

chenzhongpu / 12 декабря 2018
0 голосов
0 ответов

У меня 10 .dat больших файлов.Я использую Pyspark, чтобы преобразовать эти файлы в формат паркета,...

Ramy / 12 декабря 2018
0 голосов
4 ответов

У меня есть фрейм данных, к которому я применил filter условие val colNames = customerCountDF

coder_enthusiast / 12 декабря 2018
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...