Вопросы с тегом апаш-искровой SQL - PullRequest

Вопросы с тегом апаш-искровой SQL

0 голосов
0 ответов

Я использовал Bucketing при объединении двух таблиц, но обмен все еще происходит. Я не уверен, что...

RIYA SINGHAL / 24 апреля 2019
1 голос
0 ответов

У меня есть ситуация, аналогичная описанной в этом вопросе. Но мой полный проект находится в Scala,...

shripal mehta / 24 апреля 2019
1 голос
1 ответ
1 голос
1 ответ

Скажем, у меня есть фрейм данных originalDF, который выглядит следующим образом...

JR3652 / 24 апреля 2019
0 голосов
2 ответов

Я всегда понимал, что persist() и cache(), затем действие по активации DAG, рассчитают и сохранят...

Kenny / 24 апреля 2019
0 голосов
1 ответ

У меня есть столбец spark-dataframe Выход из df.select('parsed').show():...

vazzart / 23 апреля 2019
1 голос
0 ответов

Ежедневно мне нужно обобщать действия клиентов для разных вариантов использования. Чтобы сохранить...

CodeGeek123 / 23 апреля 2019
0 голосов
1 ответ

Как найти количество слов в столбце во фрейме данных? Я пытаюсь найти количество слов в столбце...

Hari / 23 апреля 2019
0 голосов
1 ответ

Я хотел бы создать таблицу календаря, используя этот запрос (он работает в обычном SQL) SELECT...

Elbert / 23 апреля 2019
0 голосов
1 ответ
1 голос
1 ответ

У меня есть особое требование, чтобы заполнить все значения (категории) в столбце.Например, как...

Lalit Lakhotia / 23 апреля 2019
0 голосов
1 ответ

Я пытаюсь создать столбец вложенного массива структуры из кадра данных во время операции соединения...

vfrank66 / 23 апреля 2019
1 голос
2 ответов
0 голосов
1 ответ

Я пишу код для выбора максимального значения из столбца, который не равен двум другим большим...

KRK / 22 апреля 2019
0 голосов
1 ответ

просто с помощью функции UDF для объединения двух строк. Вот мой код import org.apache.spark.sql

sudarshan / 22 апреля 2019
2 голосов
0 ответов

Есть ли опция с sparksession.read () для кэширования при загрузке?Я читаю XML-файлы из s3, и он...

user2661771 / 22 апреля 2019
3 голосов
3 ответов
0 голосов
1 ответ

Я пытаюсь выполнить группирование для определенного столбца в кадре данных на основе данных,...

Vineel / 22 апреля 2019
0 голосов
1 ответ

Входной набор данных Dataset<Row> inputDS = spark.read.format("avro")

Vicky / 22 апреля 2019
0 голосов
0 ответов

Когда я использую таблицу кустов Spark-запросов SQL, «MetaException response too large» выдает...

张元亮 / 22 апреля 2019
0 голосов
1 ответ

UDF Spark содержат следующие функции: обнуляемый, детерминированный, dataType и т. Д. Таким образом...

abden003 / 22 апреля 2019
2 голосов
1 ответ

Мой фрейм данных выглядит так: +-------------------+-------------+ | Nationality| continent|...

Hanan Atallah / 22 апреля 2019
1 голос
1 ответ

У меня есть искровой фрейм данных в pyspark, и мне нужно удалить все константные столбцы из моего...

kanimbla / 21 апреля 2019
0 голосов
1 ответ

Рассмотрим пример кадра данных: df = +-------+-----+ | tech|state| +-------+-----+ | 70|wa | |...

TJE / 21 апреля 2019
0 голосов
0 ответов
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...