Я пытаюсь прочитать файл партера с помощью nodejs: var parquet = require('parquetjs'); (...
Я хочу написать файл партера, который содержит несколько обычных столбцов с данными 1d-массива и...
Я использую Python со средой Conda и установил pyarrow с: conda install pyarrow После этого...
Я использую parquetjs модуль узла для чтения файлов паркета. Если файл паркета прост - например,...
Я в основном конвертирую некоторые csv файлы в parquet.Для этого я решил использовать dask,...
У меня есть папка с файлами паркета. Как прочитать их все и преобразовать в 1 большой текстовый...
Есть ли способ выборочно копировать определенные поля из файла паркета?У меня есть ddl файла...
Нам удалось получить действительное соединение от фабрики данных Azure к нашему кластеру баз данных...
Имея огромный SAS-файл, я хотел бы преобразовать его в паркет, сохраняя определенные типы данных,...
Я попытался использовать parquetjs: https://www.npmjs.com/package/parquetjs Код из их примера: var...
Я использую Spark Structured Streaming для классического варианта использования: я хочу прочитать...
У меня есть приложение Spark Streaming (v 2.4.0), которое выводит данные в формате паркета на...
В Python мы можем проверить zip-файл, используя метод zipfile.is_zipfile https://docs.python
Я пишу protobuf в Parquet с помощью ProtoParquetWriter, я также пишу в локальную HDFS и пишу только...
У меня есть задание Apache Spark, которое записывает набор данных паркета в хранилище BLOB-объектов...
У меня проблема с типами файлов при преобразовании файла паркета в фрейм данных. Я делаю bucket =...
Как сохранить кадр данных, показанный в конце, в паркет? Он был построен следующим образом: df_test...
Я запускаю пакетное задание Spark Sql и намеревался преобразовать дамп таблицы в файл (ы) паркета
Я преобразовал большой CSV-файл (~ 20 ГБ) в формат паркета через dask import dask.dataframe as dd...
Я хочу сохранить следующий кадр данных pandas в файле паркета с помощью PyArrow: import pandas as...
У меня есть задание ETL, где я хочу добавить данные из CSV-файла в таблицу Impala.В настоящее время...
Я пытаюсь объединить несколько файлов паркета, расположенных в HDFS, с помощью PySpark. Эти файлы...
Мне нужна помощь по теме kafka, которую я хотел бы поместить в HDFS в формате паркет (с ежедневным...
Я пытаюсь использовать kafka-connect-hdfs, но, похоже, это не работает .. Я пытался возиться с...
Я конвертирую большие файлы CSV в файлы Parquet для дальнейшего анализа.Я читаю данные CSV в Pandas...