Вопросы с тегом апаш-искровой SQL - PullRequest

Вопросы с тегом апаш-искровой SQL

0 голосов
3 ответов

У меня есть несколько схем, как показано ниже, с разными именами столбцов и типами данных.Я хочу...

user3190018 / 30 ноября 2018
0 голосов
1 ответ
0 голосов
1 ответ

У меня есть пример, я хочу создать Dataframe в UDF.Нечто похожее на приведенное ниже import org

xuguozheng / 30 ноября 2018
0 голосов
1 ответ

Чтение файла фиксированной ширины в Spark легко, и для этого есть несколько способов.Однако я не...

Naren / 30 ноября 2018
0 голосов
1 ответ

Spark имеет функцию SQL percentile_approx(), а его аналог Scala равен df.stat.approxQuantile()....

Dzmitry Lazerka / 30 ноября 2018
0 голосов
1 ответ

Я использую Spark 2.3.2 и читаю многострочный файл JSON.Это вывод df.printSchema(): root |-- data:...

ScalaBoy / 30 ноября 2018
0 голосов
1 ответ

Я пытаюсь прочитать данные JSON и явно указываю схему для данных.Но я получаю исключение при...

Reddevil / 29 ноября 2018
0 голосов
2 ответов

Я пытаюсь запросить hdfs, в которых много файлов деталей (avro).Недавно мы внесли изменения, чтобы...

user3679686 / 29 ноября 2018
0 голосов
1 ответ

В процессе ETL, которым мы управляем, мы получаем иногда поврежденные файлы.Мы попробовали эту...

sylvinho81 / 29 ноября 2018
0 голосов
1 ответ

У меня есть данные / строки из нескольких пар ключ / значение с неизвестным количеством ключей -...

ghukill / 29 ноября 2018
0 голосов
0 ответов

Я использую spark sql 2.3.1 и извлекаю данные из схемы json следующим образом:...

Mak / 29 ноября 2018
0 голосов
1 ответ

Я хочу преобразовать столбец отметки времени, который содержит время эпохи, в дату и время...

Sun / 29 ноября 2018
0 голосов
0 ответов

У меня есть искровое задание на производстве, которое планируется запускать в режиме клиента каждый...

Ankur / 29 ноября 2018
0 голосов
2 ответов

Я не уверен, задан ли этот конкретный вопрос ранее или нет.может быть возможным дубликатом, но я не...

vikrant rana / 29 ноября 2018
0 голосов
1 ответ

чтение файла паркета с помощью spark df = spark.read.parquet("path_to_file") df.show(2)...

Tushar Kolhe / 29 ноября 2018
0 голосов
0 ответов

Если у меня есть набор данных из 100 записей, разбитых на 10 разделов, и если я запускаю над ним...

Vikas Gite / 29 ноября 2018
0 голосов
1 ответ

У меня есть код, который преобразует потоковые данные Pyspark в dataframe.Мне нужно сохранить этот...

ariun ariun / 29 ноября 2018
0 голосов
1 ответ

Для каждого entity_id в наборе данных сигналов найдите item_id с самым старым и самым новым...

suresh c / 29 ноября 2018
0 голосов
1 ответ

Я очень рад, что Spark позволяет мне установить JDBC-соединение с таблицей базы данных, а затем...

Ziggy Eunicien / 29 ноября 2018
0 голосов
1 ответ

Я пытаюсь использовать Spark-SQL для чтения и выбора данных из строки JSON. Вот что я сделал:...

Newman / 29 ноября 2018
0 голосов
1 ответ

У меня есть CSV-файл с ~ 30 столбцами, один из столбцов является строкой json.Что я хочу сделать,...

Joe / 28 ноября 2018
0 голосов
1 ответ

Цель: Для кадра данных со схемой id:string Cold:string Medium:string Hot:string IsNull:string...

mikeyoung / 28 ноября 2018
0 голосов
0 ответов

Я использую spark 2.3.1, и я получаю странную ошибку, о которой я не могу найти информацию или не...

MitakaJ9 / 28 ноября 2018
0 голосов
0 ответов

У меня есть RDD выход (22 столбца, 10000 строк) разъема искрового Hbase, и я должен преобразовать...

SimbaPK / 28 ноября 2018
0 голосов
1 ответ

В pyspark, как преобразовать входной RDD, где Каждый ключ имеет список значений , в выходной RDD,...

P-S / 28 ноября 2018
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...