Вопросы с тегом паркет - PullRequest

Вопросы с тегом паркет

1 голос
1 ответ

Я сталкиваюсь с проблемой асимметрии, когда пытаюсь объединить 2 набора данных.Один из разделов...

Arpan / 08 июня 2019
1 голос
0 ответов

Я попытался преобразовать исходные файлы паркета в csv, а выходной файл csv снова в паркет. При...

Rahul / 07 июня 2019
0 голосов
3 ответов

Мне часто приходится создавать файлы паркета для тестирования компонентов инфраструктуры, таких как...

John Humphreys - w00te / 06 июня 2019
1 голос
0 ответов

Я запускаю искровое задание, в котором я пытаюсь вставить данные из 11 тыс. Столбцов в таблицу...

Mohit Raja / 06 июня 2019
3 голосов
1 ответ

Я ищу способ ускорить интенсивное использование памяти в приложении. Я видел, что некоторые люди...

Audrey / 06 июня 2019
0 голосов
0 ответов

У меня есть одна из наших систем Python, генерирующая файлы Parquet с использованием Pandas и...

Little Child / 05 июня 2019
1 голос
0 ответов

В настоящее время выполняется некоторый код, подобный следующему: df = pd

JD D / 04 июня 2019
1 голос
1 ответ

Какова лучшая практика для работы с Vertica и Parquet Моя архитектура приложения: Kafka Topic (Avro...

T1234 / 04 июня 2019
1 голос
1 ответ

Я пытаюсь запустить команду parquet-tools , чтобы просмотреть только схему файла моего файла...

JD D / 04 июня 2019
1 голос
1 ответ

Из-за некоторых ограничений потребителя моих данных мне нужно «переписать» некоторые файлы паркета,...

JD D / 04 июня 2019
0 голосов
0 ответов

В настоящее время у нас есть задача DMS, которая будет принимать содержимое базы данных MySQL и...

JD D / 03 июня 2019
1 голос
1 ответ

Я конвертирую данные из CSV в Parquet, используя Python (Pandas), чтобы позже загрузить их в Google...

dhafnar / 03 июня 2019
0 голосов
1 ответ

Я использую avro 1.8.2 и простую запись avro idl, как, например, record FooRecord { string...

sunny / 02 июня 2019
0 голосов
0 ответов

У нас есть процесс дедупликации, который читает файлы паркета, удаляет дубликаты записей и...

Mathivanan / 31 мая 2019
0 голосов
0 ответов

Я хочу попытаться сохранить много больших DataFrames Pandas, которые не помещаются в память сразу,...

Nick Fernandez / 31 мая 2019
0 голосов
0 ответов

Я использую ReflectData для генерации схемы из класса Java. Одно из полей private LocalDate...

sunny / 31 мая 2019
0 голосов
0 ответов

Я хочу записать поток больших данных в файл паркета с Python. Мои данные огромны, и я не могу...

Mohsen Laali / 30 мая 2019
1 голос
1 ответ

Я столкнулся со сценарием, в котором у меня был набор искровых данных с 24 столбцами, из которых я...

John Humanyun / 30 мая 2019
0 голосов
1 ответ

Я читаю паркет с: df = spark.read.parquet(file_name) И получите столбцы с: df.columns И возвращает...

George C / 29 мая 2019
1 голос
1 ответ

У меня есть pyarrow код написания набора данных для паркета. Я хочу провести интеграционный тест,...

toidas / 29 мая 2019
0 голосов
1 ответ

Я пытаюсь прочитать файл паркета с помощью этого простого кода: ParquetReader<GenericRecord>...

Babu / 29 мая 2019
0 голосов
1 ответ

У меня есть поток Kinesis, в который мое приложение записывает ~ 10K сообщений в секунду в формате...

danieln / 28 мая 2019
0 голосов
0 ответов

В настоящее время я пытаюсь выполнить пакетную обработку с использованием Spring Batch с CSV для...

NIRMAL KUMAR SHARMA / 28 мая 2019
0 голосов
1 ответ

Я пытаюсь записать свой фрейм данных в таблицу разделов кустов. Формат таблицы кустов - паркет. Но...

Adhish / 27 мая 2019
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...