Мы хотим хранить данные вроде: {"event":"click", "click_url":..., ..
У меня есть существующие паркет (скажем, p1) для чтения в информационный кадр, а затем после...
Я работаю с низкоуровневой реализацией Parquet-cpp, и когда я создаю группу строк из набора...
У меня есть требование, при котором я должен читать файлы паркета в разных каталогах в HDFS
У меня много паркетных файлов.Мне нужно прочитать их через Amazon Glue, а затем предоставить имена...
Я пытаюсь сравнить производительность между SparkSql на Parquet и Phoenix на HBase.Запрашиваемый...
Чтение CSV-файлов, а затем запись в паркет. Можно ли сохранить 128 МБ паркетных блоков? Мой текущий...
Общая цель: 1) Потоковые записи являются входными данными 2) Паркет возьмет х записей и создаст...
Я создаю внешнюю таблицу в Redshift, указывая на файл Parquet, хранящийся в S3.Файл паркета...
У меня есть файл партера, который записывается в S3 с использованием предложения partitionBy, и это...
У меня есть папка партера с многораздельными наборами данных, которые я пытаюсь прочитать и...
Я получаю данные protobuf из google pub / sub и десериализирую данные в объект типа Message. Итак,...
В настоящее время я использую файлы Parquet для импорта данных в BigQuery (GIS). Один из файлов...
Мое приложение структурированной потоковой передачи пишет в паркет, и я хочу избавиться от...
Я хотел прочитать -> обновить -> написать файлы паркета, используя версию Python 2.7 или менее
Я хочу показать содержимое файла паркета с помощью Spark Sql, но поскольку имена столбцов в файле...
Я вставил несколько записей в таблицу retail_db.customers для проверки импорта Sqoop --null-string...
У меня есть паркетные файлы, которые мне нужно прочитать со спарк. В некоторых файлах отсутствует...
Я использую функцию read_csv фрейма данных pandas, и время от времени столбцы не имеют значений. В...
Я ищу документацию о том, как parquet.enable.dictionary будет использоваться в Spark (последняя...
У меня есть таблица кустов с файлами в формате паркета. Одним из типов данных столбца является...
У меня есть файл паркета, хранящийся в hdfs, который называется small in path: / user / s / file
У меня есть работа, которая читает CSV-файлы, конвертирует их во фреймы данных и записывает в...
У меня есть какой-то фрейм данных. Я сохраняю этот фрейм данных, используя следующий код: df.write
Я пытаюсь использовать Pandas и Pyarrow для паркетных данных. У меня есть сотни файлов паркета,...