Вопросы с тегом паркет - PullRequest

Вопросы с тегом паркет

0 голосов
0 ответов

Когда данные находятся в Hive как формат паркета и при попытке чтения из Spark, я сталкиваюсь с...

Ayan Biswas / 05 октября 2018
0 голосов
1 ответ

Как я могу открыть файл .snappy.parquet в python 3.5?До сих пор я использовал этот код: import...

user9439906 / 05 октября 2018
0 голосов
2 ответов

Я выполняю операцию соединения из данных паркета S3 в таблицу JDBC (Postgres), используя столбец в...

Narfanator / 04 октября 2018
0 голосов
1 ответ

У меня есть Dask DataFrames , который содержит индекс, который не является уникальным (client_id)

Szymon / 04 октября 2018
0 голосов
0 ответов

Я использую Spark 2.3.1 PySpark (AWS EMR) Я получаю ошибки памяти: Контейнер уничтожен YARN за...

Acid Rider / 04 октября 2018
0 голосов
2 ответов

Я пытаюсь вставить данные во внешнюю таблицу кустов через spark sql.Мой стол в улье разбит на...

Ayan Biswas / 04 октября 2018
0 голосов
1 ответ

У меня есть датафрейм с более чем 400 столбцами.Большинство столбцов перекошены, т. Е. Значения...

Avishek Bhattacharya / 03 октября 2018
0 голосов
2 ответов

Вот ситуация, с которой я сталкиваюсь. Среда: Настольная ОС: Windows 7 Установленная Apache Drill...

Keshav Prabhu / 03 октября 2018
0 голосов
1 ответ

У меня есть несколько файлов .parquet, каждый из которых имеет форму (1126399, 503) и размер 13 МБ

schaefferda / 02 октября 2018
0 голосов
1 ответ

Я читаю DataFrame из паркета и хочу кэшировать его после выбора некоторых вложенных структур. df

Yann Moisan / 02 октября 2018
0 голосов
1 ответ

У меня есть набор данных паркета, где я сохранил массив byte_array. Я использую Apache Drill для...

user1302023 / 01 октября 2018
0 голосов
0 ответов

У меня есть файл Parquet, который я хотел бы прочитать в своей программе Scala без использования...

Make42 / 01 октября 2018
0 голосов
1 ответ

Эта опция существует в Spark, и я увидел, что пиарроу write_table() принимает ** kwargs, но после

Jay / 29 сентября 2018
0 голосов
0 ответов

Я хочу записать свою коллекцию в файл .parquet, чтобы впоследствии ее можно было прочитать с...

Aivaras / 28 сентября 2018
0 голосов
1 ответ
0 голосов
1 ответ

Я нахожусь в процессе понимания формата файла паркета, и, похоже, для этого нет формальной...

user1154422 / 27 сентября 2018
0 голосов
2 ответов

Метод 1: Запрос файла паркета напрямую как: val sqlDF = spark.sql("SELECT columns FROM parquet

Vandhana / 27 сентября 2018
0 голосов
0 ответов

У меня есть код задания, который читает содержимое файла паркета.При преобразовании типов данных...

Rajasekar / 27 сентября 2018
0 голосов
0 ответов

У меня есть код Java, который читает файл Parquet.Когда я изменяю путь этого кода, как показано...

Rajasekar / 27 сентября 2018
0 голосов
1 ответ

Я использую перераспределение по столбцам для хранения данных в паркете.Но я вижу, что нет

Ayan Biswas / 26 сентября 2018
0 голосов
1 ответ

У меня большой набор данных, df, состоящий из событий.Я хочу выписать его, разделив по годам /...

Narfanator / 25 сентября 2018
0 голосов
1 ответ

Файл моего паркета получен из CSV, в котором некоторые ячейки экранированы.Например: это значение...

Sashank / 25 сентября 2018
0 голосов
1 ответ

Я пытаюсь использовать Dask для чтения и записи из Google Bucket.Использование группы csv файлов...

cd98 / 24 сентября 2018
0 голосов
1 ответ

У меня есть 25-килобайтный файл паркета «строка» (всего 469,5 КБ), где каждый элемент в паркете...

micah / 24 сентября 2018
0 голосов
0 ответов
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...