Вопросы с тегом паркет - PullRequest

Вопросы с тегом паркет

0 голосов
1 ответ

Я нашел этот билет apache-parquet https://issues.apache.org/jira/browse/PARQUET-686, который...

Nevermore / 05 ноября 2018
0 голосов
0 ответов

У меня есть 100 с паркетных файлов в S3, я хочу проверить, все ли паркетные файлы созданы правильно...

Alexsander / 05 ноября 2018
0 голосов
2 ответов

На официальном сайте Apache это официальное объяснение этого параметра : При значении true источник...

Shaokai Li / 05 ноября 2018
0 голосов
0 ответов

Теперь дана таблица улья со своей схемой, а именно: hive> show create table nba_player; OK...

JayZero / 05 ноября 2018
0 голосов
1 ответ

Мне нужно постепенно загружать данные в Pandas из файлов Parquet, хранящихся в s3, я пытаюсь...

314159 / 03 ноября 2018
0 голосов
0 ответов

У меня есть pyspark Dataframe, который я создал с помощью метода rdd reduceByKey (поэтому есть...

Nevermore / 02 ноября 2018
0 голосов
1 ответ

У меня есть сотни тысяч небольших паркетных файлов, которые я пытаюсь регулярно читать в Spark. Мое...

Sam / 02 ноября 2018
0 голосов
1 ответ

Ответ на этот вопрос отличается от приведенного в посте выше Я получаю сообщение об ошибке pyspark

Taylrl / 02 ноября 2018
0 голосов
2 ответов

Наличие этого 12-байтового массива (int96) для отметки времени. [128 76 69 116 64 7 0 0 48 131 37...

ZAky / 01 ноября 2018
0 голосов
0 ответов

У меня проблема с модулем pyspark sql. Я создал многораздельную таблицу и сохранил ее в виде файла...

Abhishek Allamsetty / 31 октября 2018
0 голосов
0 ответов

Я читаю данные таблицы с сервера sql и сохраняю их как Dataframe в спринге. Я хочу записать df в...

Sundeep Pidugu / 31 октября 2018
0 голосов
0 ответов

У меня около 4 тысяч файлов Parquet, которые содержат большие вложенные объекты с ~ 250 различными...

Dalphin / 30 октября 2018
0 голосов
1 ответ

У меня есть процесс, который читает таблицу кустов (parquet-snappy) и создает набор данных объемом...

Smiten Shah / 28 октября 2018
0 голосов
1 ответ

Для разбора файла большего размера мне нужно последовательно записывать большое количество файлов...

Abel Riboulot / 27 октября 2018
0 голосов
1 ответ

Используя AWS Firehose, я конвертирую входящие записи в паркет. В одном примере у меня есть 150k...

micah / 26 октября 2018
0 голосов
1 ответ

У меня есть данные в файле Parquet и я хочу применить к нему пользовательскую схему. Мои исходные...

rajcool111 / 26 октября 2018
0 голосов
1 ответ

Я использую spark и мне нужно применить файлы cdc из реплики базы данных к файлу паркета, как...

user3153442 / 25 октября 2018
0 голосов
1 ответ

У меня есть случай, когда мне нужно переместить данные из внутреннего кластера CDH в кластер AWS...

Faisal Ahmed Siddiqui / 24 октября 2018
0 голосов
0 ответов

позвольте мне сначала начать с моего сценария: у меня есть большой массив данных, хранящийся в HDFS

Werner / 24 октября 2018
0 голосов
0 ответов

Я создал веб-сканер в рамках своей диссертации.Это выполняется каждую минуту и ​​получает данные -...

HakuHUN / 24 октября 2018
0 голосов
0 ответов

Я понимаю, что могу читать паркет в датафрейме, вопрос здесь в том, как читать только заголовок...

mdivk / 23 октября 2018
0 голосов
1 ответ

Я создал файл паркета с помощью Pyarrow, и его можно запросить с помощью Pyspark.Однако его нельзя...

Ray / 23 октября 2018
0 голосов
2 ответов

Вариант использования следующий: Считывание данных из внешней базы данных и загрузка их в pandas...

JaviOverflow / 23 октября 2018
0 голосов
1 ответ

Я нахожу только TextInputFormat и CsvInputFormat.Итак, как я могу использовать Apache Flink для...

pijing / 23 октября 2018
0 голосов
0 ответов

У меня есть несколько паркетных файлов, которые я хотел бы вставить в красное смещение.Я не слишком...

nkramer52 / 23 октября 2018
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...