Вопросы с тегом апаш-искра - PullRequest

Вопросы с тегом апаш-искра

0 голосов
2 ответов

Следующий фрагмент кода занимает много времени на 4 ГБ необработанных данных в кластере: df

Markus / 15 мая 2018
0 голосов
4 ответов

У меня есть большой граф (несколько миллионов вершин и ребер).Я хочу удалить все вершины (и ребра),...

Mann / 15 мая 2018
0 голосов
0 ответов

При создании DataFrame из файла CSV, если включена опция multiLine, некоторые столбцы файла...

Fernando Lemos / 15 мая 2018
0 голосов
0 ответов

После прочтения этого ответа я знаю, что количество разделов при чтении данных из Hive будет...

cat / 15 мая 2018
0 голосов
1 ответ

Можно иметь массив разделов Spark DataFrame следующим образом: > df.rdd.partitions Есть ли...

user152468 / 15 мая 2018
0 голосов
1 ответ

Я работаю над датафреймом в Pyspark. Один столбец состоит из целочисленного значения,...

Valentina / 15 мая 2018
0 голосов
2 ответов

Я новичок в Spark & ​​Scala и получил исключение после вызова saveAsTextFile ().Надеюсь, что кто-то...

Nhan Tran / 15 мая 2018
0 голосов
0 ответов

Я пытаюсь понять, как работает разделение в искрах для записей пары NON KEY VALUE.Команды...

Karthi / 15 мая 2018
0 голосов
1 ответ

Для входа Dataframe намерение состоит в том, чтобы генерировать только половину само декартового...

javadba / 15 мая 2018
0 голосов
1 ответ

поэтому у меня есть необходимость транслировать некоторый связанный контент с RDD на все рабочие...

lee / 15 мая 2018
0 голосов
1 ответ

Я должен предварять это тем фактом, что я использую Enhanced VPC Routing для своей учетной записи...

hotmeatballsoup / 15 мая 2018
0 голосов
1 ответ

Я немного запутался в том, как настроить конфигурацию Spark для рабочих нагрузок, используя YARN в...

simplycoding / 15 мая 2018
0 голосов
1 ответ

У меня есть записи, подобные приведенным ниже. Разделенные пробелами / разделенные: 2015-07-22 5555...

1pluszara / 14 мая 2018
0 голосов
2 ответов

Я ищу лучший способ читать сообщения (много сообщений, около 100B каждый день) из Кафки, после...

CSharpBeginner / 14 мая 2018
0 голосов
0 ответов

Здравствуйте, как мы можем прочитать эту таблицу улья с переплетом в Spark 2.x.Даже в примере с...

Hemant / 14 мая 2018
0 голосов
1 ответ

У меня есть следующий код, написанный на Spark с использованием Scala и SQL API: sourceData

datahack / 14 мая 2018
0 голосов
1 ответ

скажем, например, это JSON, как показано ниже. Я на самом деле взял это с сайта Amazon, но я думаю,...

oortcloud_domicile / 14 мая 2018
0 голосов
1 ответ

Недавно я работал с Spark с источником данных JDBC.Рассмотрим следующий фрагмент: val df = spark

T. Gawęda / 14 мая 2018
0 голосов
0 ответов

Vertica имеет аналитическую функцию CONDITIONAL_CHANGE_EVENT, которая выполняет что-то вроде...

Manjesh / 14 мая 2018
0 голосов
1 ответ

В Spark, в чем разница между добавлением JAR-файлов в путь к классам через аргумент --packages и...

hotmeatballsoup / 14 мая 2018
0 голосов
1 ответ

Предположим, я присоединяюсь к нескольким Spark фреймам данных: abcd = a.join(b, 'bid',...

Michael / 14 мая 2018
0 голосов
1 ответ

У меня есть данные JSON, которые содержат несколько вложений, как показано ниже. Глубина вложения...

user400058 / 14 мая 2018
0 голосов
0 ответов

Контекст Я работаю над sparkR с CSV-файлами.до работы с spark я работал над R с файлами Excel, и я...

Meziani Amina / 14 мая 2018
0 голосов
0 ответов

У меня есть приложение Spark Structured Streaming, которое получает сообщения Kafka.Для каждого...

Igorock / 14 мая 2018
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...