У меня есть файл с именем data.parquet.gzip на моей корзине S3. Я не могу понять, в чем проблема,...
Загружая хранилище данных Azure через Polybase, я читаю файлы Parquet, которые находятся в...
У меня есть таблица кустов - temp в формате файла последовательности, которую я хочу преобразовать...
Как правило, если мы создадим таблицу Hive с паркетом или ORC, то она будет сканировать конкретный...
Я пытаюсь преобразовать файл паркета в avro, но выбрасываю "INT96 еще не реализовано" Не могли бы...
Я хотел преобразовать большую .csv vile в формат .parquet, используя pyspark. Я использую Python 3....
Мы изучали использование Glue для преобразования некоторых данных JSON в паркет.Один из сценариев,...
У меня есть файл в aws S3, в форматах CSV (~ 20 ГБ) и паркета (~ 4 ГБ). Этот файл проходит два...
Я установил parquet-tools CLI.При запуске parquet-tools cat --debug -j для любого файла .parquet...
Я устанавливаю pyarrow 0.13.0 в виртуальной среде на Ubuntu 16.04, используя pip, и он был успешно...
Почему я должен преобразовать СДР в ДФ, чтобы записать его как паркет, авро или другие типы?Я знаю,...
Вариант использования Я использую файлы Apache Parquet в качестве быстрого формата ввода-вывода для...
Наше приложение обрабатывает потоковые данные, которые записываются в файлы паркета. Время от...
Каков статус эволюции схемы для arrays из structs (сложных типов) в искре? Я знаю, что для ORC или...
Кто-нибудь знает способ чтения файлов паркета с помощью NodeJS? Я пытался node-parquet ->...
Я пытаюсь выполнить sqoop из Teradata, и изначально у меня было несоответствие в количестве строк....
моя схема avro содержит очень большой массив целых чисел (например, миллионы целых чисел). Почти во...
Я работаю над некоторой пакетной обработкой в Spark, читая данные из многораздельного файла...
У меня есть файлы в хранилище BLOB-объектов Azure , например: entity |- part001.parquet |- part002
У меня есть файл паркета на S3, который содержит несколько схем следующим образом:...
Я использую HiveMetaStoreClient для получения метаданных таблиц улья, и некоторые таблицы...
Я пытаюсь прочитать файл паркета из удаленной файловой системы HDFS, используя Java. Для этого я...
Я пишу DataFrame в Redshift, используя временную корзину s3 и Parquet в качестве временного формата
Я импортирую файл паркета из S3 в Redshift. Файл имеет 3 столбца. Последний столбец - это объект...
Я пытаюсь реализовать функцию удаления для паркета при использовании, кроме функции, я получаю...