Вопросы с тегом апаш-искровой-sql - PullRequest

Вопросы с тегом апаш-искровой-sql

0 голосов
0 ответов

У меня есть sql (ниже), где мы должны сравнить некоторые поля в основной таблице с существующей...

marie20 / 08 ноября 2019
1 голос
2 ответов

Вместо того, чтобы упорядочивать по дням, это упорядочивать по месяцам. Я пробовал str_to_date, но...

SakuraFreak / 08 ноября 2019
0 голосов
0 ответов

Элемент списка Необходимо сравнить два кадра данных и создать третий кадр данных, чтобы...

Spark-dev / 08 ноября 2019
0 голосов
0 ответов

Я хочу проверить, является ли 'aa' подстрокой какой-либо из строк массива (столбца) строк. Согласно...

Boern / 08 ноября 2019
0 голосов
1 ответ

Я прочитал CSV-файл в pyspark dataframe. Теперь, если я применяю условия в предложении when(), он...

Nandha / 08 ноября 2019
0 голосов
2 ответов

У меня есть pyspark Dataframe, который содержит много столбцов, в том числе столбец типа Array и...

daddou06 / 08 ноября 2019
1 голос
2 ответов

Я пытаюсь прочитать файл паркета как информационный фрейм, который будет периодически обновляться...

wazza / 08 ноября 2019
0 голосов
0 ответов

У меня есть спарк-кластер с одним ведущим (имя хоста: masterA) и двумя подчиненными (имена хостов:...

Pruthvi Raj / 08 ноября 2019
0 голосов
2 ответов

Сложность в том, что я стараюсь избегать UDF как можно больше. У меня есть набор данных "wordsDS",...

mjat / 07 ноября 2019
0 голосов
0 ответов
0 голосов
2 ответов

Я хочу создать несколько столбцов из одного столбца из Dataframe, используя запятую в Java Spark. У...

Tamil / 07 ноября 2019
0 голосов
2 ответов

Моя схема: StructField[] fields = new StructField[] { DataTypes.createStructField("id",...

Sterling Duchess / 07 ноября 2019
0 голосов
0 ответов

Я знаю, что сравнение стратегий объединения - сложная проблема. Но в обычных случаях я могу...

Bostonian / 07 ноября 2019
2 голосов
1 ответ

У меня есть фрейм данных pyspark с 2 столбцами (Violation_Time, Time_First_Observed), которые...

wjie08 / 07 ноября 2019
0 голосов
0 ответов

У меня есть CSV, для которого мне нужно создать df, который имеет столбец ArrayType, проблема в том...

Andy Smith / 07 ноября 2019
0 голосов
0 ответов

Я только начал изучать Scala для моего официального проекта. Я не смог решить следующий вариант...

Manas Mukherjee / 07 ноября 2019
0 голосов
1 ответ

Я знаю, что мы могли бы явно ANALYZE таблицу в Spark SQL, чтобы мы могли получить некоторую точную...

Bostonian / 07 ноября 2019
0 голосов
0 ответов

Я пытаюсь передать большой (~ 30 ГБ) фрейм данных в pandas_udf в spark следующим образом: @f

Megan / 07 ноября 2019
0 голосов
1 ответ

Базовый источник данных хранится в формате Parquet и предоставляется через Hive. Можно ли...

Bostonian / 07 ноября 2019
1 голос
2 ответов

Обновленный вопрос Что мне непонятно => в ShuffleMapStage каждый Mapper создаст .data и .index file...

SanBan / 07 ноября 2019
0 голосов
0 ответов

Подскажите, пожалуйста, как правильно завершить скрипт pyspark. В настоящее время у меня есть...

FlorentinaP / 06 ноября 2019
1 голос
1 ответ

Я загрузил CSV-файл. Повторно разделил его на 4, а затем принял к сведению DataFrame. И когда я...

ѕтƒ / 06 ноября 2019
0 голосов
0 ответов

Возьмем, например, контейнер S3 следующей структуры: s3://francesco-totti/day/hour/min/*.json.lzo...

pippa dupree / 06 ноября 2019
1 голос
0 ответов
1 голос
1 ответ

Я новичок в Spark, пытаюсь использовать его так же, как я использовал Pandas для анализа данных. В...

meboyhe / 06 ноября 2019
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...