Вопросы с тегом апаш-искровой SQL - PullRequest

Вопросы с тегом апаш-искровой SQL

1 голос
1 ответ

У меня проблемы с получением значения из строки JSON с использованием регулярного выражения в искре

Zack / 03 июня 2019
1 голос
1 ответ
0 голосов
0 ответов

Есть ли способ пропустить проверку запроса в кусте при создании представления? Используя beeline я...

Joha / 03 июня 2019
0 голосов
0 ответов

Я собираю значения одного столбца из отдельного dataFrame и добавляю их в отдельный список, как...

ram / 03 июня 2019
3 голосов
2 ответов

У меня есть датафрейм с искрой, как показано ниже. Я пытаюсь разбить столбец на еще 2 столбца: date...

Learnis / 02 июня 2019
0 голосов
1 ответ

При преобразовании из VARBINARY в STRING мне интересно, взаимозаменяемы ли операции CAST (... в...

anon_student / 02 июня 2019
0 голосов
1 ответ

Я пытаюсь развернуть искровое задание в искровом кластере, и мне кажется, что возникла проблема с...

Joey Trang / 02 июня 2019
0 голосов
1 ответ
0 голосов
2 ответов

Я новичок в pyspark, и у меня возникают проблемы с преобразованием функций python в pyspark udf. У...

qshng / 01 июня 2019
0 голосов
0 ответов

Я пытаюсь удалить некоторые записи из таблицы hbase на основе отдельного фрейма данных искры,...

Kanav Sharma / 01 июня 2019
0 голосов
3 ответов

У меня есть фрейм данных с 432 столбцами и 24 дубликатами столбцов. df_tickets -> 432 столбца...

Alan / 31 мая 2019
0 голосов
1 ответ

У меня есть файл CSV, содержащий несколько слов. Всего № слов в файле csv не будет превышать 50 тыс

Anand / 31 мая 2019
1 голос
1 ответ
0 голосов
0 ответов

При записи данных в Bigquery с помощью коннектора spark bigquery. Я сталкиваюсь с этой проблемой....

Phoenix / 31 мая 2019
1 голос
5 ответов

У меня есть такой фрейм данных, показано только два столбца, однако в исходном фрейме данных много...

Hardik gupta / 31 мая 2019
1 голос
1 ответ

У меня есть Spark DataFrame, значения строк которого я хотел бы преобразовать в один столбец. Это...

EchoCache / 31 мая 2019
0 голосов
1 ответ

Я попытался разделить фрейм данных Spark по столбцу отметки времени update_database_time и записать...

Cassie / 30 мая 2019
0 голосов
1 ответ

После того, как я отсортировал все записи и использовал функцию write() для S3, я хочу...

Quan Quan / 30 мая 2019
0 голосов
1 ответ

Я «переводю» код Python в pyspark.Я хотел бы использовать существующий столбец в качестве индекса...

Daniel Thereza / 30 мая 2019
1 голос
1 ответ

Я создаю столбец time_interval и добавляю его в существующий фрейм данных в Pyspark . В идеале...

Guy / 30 мая 2019
0 голосов
1 ответ

Я хочу прочитать RDD[String] с помощью устройства чтения CSV. Причина, по которой я это делаю,...

Achyuth / 30 мая 2019
1 голос
1 ответ
0 голосов
1 ответ

Я пытаюсь показать различия между двумя различными наборами данных и эффективно. Мне нужно...

william peck / 30 мая 2019
0 голосов
0 ответов

Я пытаюсь сохранить набор структурированных паровых данных в заданную таблицу Кассандры. Я...

Shyam / 30 мая 2019
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...