У меня есть каталог партера, содержащий 5 файлов, как показано ниже: Я использую версию Spark 2.2 и...
Я хотел бы настроить агент Flume, который должен читать из раздела Kafka, и сохранить данные в...
У меня возникла проблема, когда при повторном запуске задания потоковой передачи, если выходной...
Я пытаюсь прочитать S3-ключ на стороне клиента ( KMS-CSE ), содержащий паркет отформатированные...
Когда я пытаюсь записать фрейм данных в виде паркета, размеры файлов неодинаковы. Хотя я не хочу...
Паркет имеет Индексы столбцов с 2018 года, однако я не могу найти ни одного пакета, который...
Я пытаюсь записать фрейм данных Pandas в разделенные файлы непосредственно на мой Datalake (Gen2),...
Я использую конвейер Beam на SparkRunner с выходными данными файла Parquet (хотя проблема...
Когда я пытаюсь открыть файлы .parquet, которые есть в моем AWS S3, с помощью Jupyter Notebook, он...
В настоящее время я работаю над приложением Pyspark для вывода ежедневных дельта-экстрактов в виде...
Другая команда создает файл партера на S3 с помощью apache-spark, и они утверждают, что файл...
Я без проблем преобразовал файл паркета в pandas, но имел проблему с преобразованием паркета в...
Может ли neo4j каким-либо образом считывать файлы паркета напрямую? У меня есть крайний список с...
У меня есть файл паркета, который содержит идентификатор, элементы исходные данные . Я хочу вычесть...
В документации я нашел, как создать Glue table в JSON формате, но не могу найти, как создать его в...
Как мне прочитать разделенный файл паркета в R со стрелкой (без искры) Ситуация созданные файлы...
Когда я пытаюсь записать файл партера, используя pandas.Timestamp в качестве индекса, я не могу...
Чтение документов "Запись и чтение потоков" . Там использовался следующий код для чтения всего...
Я использую искру. Я хочу сохранить значение 2.484, которое повторяется 13849 раз в файле паркета...
Согласно моему пониманию, друид поддерживает JsonPath (https://github.com/json-path/JsonPath) для...
Я пытаюсь прочитать несколько файлов паркета из одной подпапки S3 bucket с помощью boto3. У меня не...
При записи фрейма данных в паркет с помощью fastparquet, если в строке есть значения, которые не...
При записи файла паркета обратно в DataLake Gen2 создаются дополнительные файлы. Пример: %python...
Мне нужен совет! Я пытаюсь загрузить файл партера, расположенный в облачном хранилище Google, в...
Я хочу проверить производительность Presto на локальных данных TPCH, закодированных в формате...