Я пытаюсь загрузить файл паркета, используя файл манифеста и получаю сообщение об ошибке ниже....
Я новичок в использовании spark, и кажется, что нам нужно поместить файл в формате pandas, чтобы...
Мы запускаем процесс структурированной потоковой передачи с помощью spark 2.4.2, который считывает...
Есть способ создать блок данных с помощью некоторого ключа (для предотвращения перемешивания) и...
Я создал вывод Parquet от Apache Spark, следовательно, каталог с несколькими файлами, по одному на...
Процессор Nifi FetchParquet не наследует схему из файла Parquet без записей. Мы пытаемся...
Мы новички в представлении искровых работ от RStudio с помощью sparklyr. Мы видим длинные, большие...
Я пытаюсь использовать функцию Spark bucketBy для довольно большого набора данных. dataframe
Я запускаю искровую работу на кластере пряжи, читаю данные из файла паркета и записываю обратно...
Мы генерируем файлы Parquet, используя apache Nifi в среде, отличной от hadoop.Нам нужно запустить...
При создании DDL куста / искры для файлов паркета, «ИСПОЛЬЗОВАНИЕ ПАРКЕТА» или «ХРАНЕНИЕ КАК...
Мой файл sparquet вот так идентификатор, имя, дата 1, а, 1980-09-08 2, б, 1980-09-08 3, с,...
Не могу получить прямой ответ из сети. Рассмотрим следующий сценарий данных: У меня есть данные,...
У меня есть приложение Spark, написанное на Scala, которое пишет и читает файлы Parquet. Приложение...
Согласно документам эта команда должна возвращать структуру таблицы: DESCRIBE schema.<table>...
Я пытаюсь понять, что является серьезными изменениями в схеме паркета.Я использую protobuf для...
Проблема: При чтении из хранилища Azure производительность чтения паркета в Drill, по-видимому, в...
У меня есть таблица Hive Parquet, которую я создаю, используя Spark 2.3 API df.saveAstable....
Здесь есть несколько сообщений об обработке недопустимых символов на первом уровне, но не о...
Я генерирую файлы Parquet двумя способами: Kinesis Firehose и Spark.Они оба записаны в одну...
Мы создаем конвейер потока данных, мы будем читать данные из postgres и записывать их в файл...
Я пытаюсь записать файл партера в s3, чтобы выполнить копирование в Redshift / Файл паркет...
У меня есть несколько паркетных файлов, которые я прочитал в потоковом приложении Flink, чтобы...
Данные, которые у меня есть, являются своего рода потоковыми данными.И я хочу сохранить их в одном...
У меня в каталоге много файлов ORC. Я создал Внешнюю таблицу в Databricks, указывающую место, где...