Вопросы с тегом апаш-искровой SQL - PullRequest

Вопросы с тегом апаш-искровой SQL

0 голосов
1 ответ

У меня есть один фрейм данных, и я хочу создать другой фрейм данных на основе значений некоторых...

Nabarun Chakraborti / 01 февраля 2019
0 голосов
1 ответ

У меня есть фрейм данных, я хотел сделать запрос, чтобы получить данные, если они соответствуют...

HbnKing / 01 февраля 2019
0 голосов
1 ответ

У меня есть искровой фрейм данных со столбцом типа массива: scala> mydf.printSchema root |--...

Shay / 01 февраля 2019
0 голосов
1 ответ

Я хотел бы зарегистрировать класс UDAF (написанный на Scala или Python) и использовать его в Spark...

seiya / 31 января 2019
0 голосов
1 ответ

В pyspark, как мне отфильтровать dataframe, в котором есть столбец, представляющий собой список...

P-S / 31 января 2019
0 голосов
0 ответов

У меня есть DataFrame, где мне нужно создать столбец на основе значений из каждой строки.Я...

Tushar Kesarwani / 31 января 2019
0 голосов
0 ответов

Я пытаюсь ограничить вывод данных из фрейма перед записью на диск.Можно использовать df.limit(n) ,...

Văn Hoàng Nguyễn / 31 января 2019
0 голосов
1 ответ

Предположим, у вас есть фрейм данных со столбцами различных типов (string, double ...) и...

Ferrard / 31 января 2019
0 голосов
2 ответов

У меня есть файл журнала, в котором мне нужно проверять каждую строку.Всякий раз, когда слово...

A.N.Gupta / 31 января 2019
0 голосов
1 ответ

Я недавно начал обнаруживать блоки данных и столкнулся с ситуацией, когда мне нужно отбросить...

samba / 31 января 2019
0 голосов
1 ответ

У меня есть примерный фрейм данных df в R и rd_3 в sparklyr.Я хочу создать столбец visit_category в...

Yogesh Kumar / 31 января 2019
0 голосов
1 ответ

Используя PySpark, я пытаюсь прочитать данные изasticsearch.Обычно я устанавливаю запрос на...

codeBarer / 31 января 2019
0 голосов
1 ответ

Pyspark использует cProfile и работает в соответствии с документацией для RDD API, но, похоже, нет...

Jason / 31 января 2019
0 голосов
1 ответ

У меня есть фрейм данных Spark (2.4.0) со столбцом, который имеет только два значения (0 или 1).Мне...

Barranka / 30 января 2019
0 голосов
1 ответ

Я пытаюсь создать функцию spark, которая рекурсивно перезаписывает столбцы ArrayType: import org

r_g_s_ / 30 января 2019
0 голосов
0 ответов

Можно ли применить агрегатные функции к нескольким столбцам в окне информационного блока в pyspark?...

paul_dg / 30 января 2019
0 голосов
0 ответов

Я пытаюсь сохранить данные с локального экземпляра Kafka на локальный Postgres с помощью Spark...

Matko Soric / 30 января 2019
0 голосов
1 ответ

Как мне получить функцию более высокого порядка в Scala для правильного принятия предиката...

Georg Heiler / 30 января 2019
0 голосов
0 ответов

У меня есть потоковый фрейм данных Spark с временным окном в час, которое срабатывает каждую минуту

MartinOverflow / 30 января 2019
0 голосов
0 ответов

Я новичок в pyspark и сталкиваюсь с несколькими проблемами при выполнении заданий. Я отправляю...

Tabish Tehseen / 30 января 2019
0 голосов
1 ответ

Мне нужно количество строк в тексте JSON, где A.adList.optionalField = null JSON выглядит так: {...

GothamGirl / 30 января 2019
0 голосов
1 ответ

У меня есть PySpark UDF, который принимает массив и возвращает его суффикс: func.udf( lambda ng:...

Go Erlangen / 30 января 2019
0 голосов
0 ответов

У меня есть код ниже, где я пытаюсь создать 3 временные таблицы, а затем выполнить оператор выбора...

user3476463 / 30 января 2019
0 голосов
1 ответ

Я хотел бы знать, как пропустить заголовки, когда искра потребляет данные из kafka. моя тема kafka...

BigD / 30 января 2019
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...