Вопросы с тегом паркет - PullRequest

Вопросы с тегом паркет

0 голосов
1 ответ

Я пишу файл паркета из Spark DataFrame следующим образом: df.write.parquet("path/myfile

Thomas / 15 января 2019
0 голосов
2 ответов

У меня есть CSV-файл, который содержит примерно 200+ столбцов и 1 миллион + строк. Когда я...

Yesaya / 15 января 2019
0 голосов
2 ответов

Я хочу связать экспериментальный проект 'parquet' (https://github.com/apache/arrow/tree/master/cpp)...

Anton / 14 января 2019
0 голосов
1 ответ

при преобразовании из csv в паркет с использованием задания ETL для склеивания AWS после...

Kavya shree / 14 января 2019
0 голосов
0 ответов

Я получаю исключение при попытке сохранить фрейм данных PySpark. Вот мой код с примером игрушки:...

user8270077 / 13 января 2019
0 голосов
1 ответ

Я использую: ЭЙ-5.20.0 Hadoop 2.8.5 Spark 2.4.0 Одна из моих работ Spark записывает данные паркета...

varshnes / 13 января 2019
0 голосов
1 ответ

Допустим, у меня есть файл паркета в файловой системе. Как получить схему паркета и преобразовать...

Artavazd Balayan / 12 января 2019
0 голосов
1 ответ

Мне нужно записать записи данных в памяти в файл HDFS в формате Parquet с использованием языка C ++

cow / 12 января 2019
0 голосов
0 ответов

Я пытаюсь загрузить файл паркета в виде свиньи. Одно из полей в файле имеет тип Timestamp. В pig,...

mounica / 12 января 2019
0 голосов
0 ответов

У меня большой стол (около 300 ГБ) и баран около (50 ГБ) и 8 процессоров. Я хочу переместить свою...

user1871528 / 11 января 2019
0 голосов
1 ответ

Данные взяты из таблицы Hive, точнее, Первая таблица имеет свойства Serde Library org.apache.hadoop

Paul Velthuis / 11 января 2019
0 голосов
1 ответ

У меня есть dask dataframe, в котором есть столбец типа List [MyClass]. Я хочу сохранить этот фрейм...

cheap_grayhat / 11 января 2019
0 голосов
1 ответ
0 голосов
2 ответов

У меня есть стол в улье Запрос к одной и той же таблице двумя способами: улей или импала: я получаю...

xfly / 09 января 2019
0 голосов
2 ответов

Я использую spark-sql 2.3.1, я установил spark.sql.shuffle.partitions=40 в моем коде ' val...

Shyam / 08 января 2019
0 голосов
1 ответ

Мы разработали работу, которая обрабатывает и записывает огромное количество файлов в паркет в...

ibk_jj / 08 января 2019
0 голосов
0 ответов

Мы используем python для общения с одним экземпляром h2o (последняя версия 3.22.1.1). Иногда мы...

anthony / 04 января 2019
0 голосов
1 ответ

Мы используем H2O (последняя версия 3.22.1.1) для чтения данных паркета из s3. Мы используем Python...

anthony / 04 января 2019
0 голосов
0 ответов

Я сталкиваюсь с проводной ситуацией.Я пытаюсь читать из оракула и записывать в папку hdfs в...

Shyam / 04 января 2019
0 голосов
1 ответ

Я вставляю в внешний улей паркетный стол из Spark 2.1 (используя df.write.insertInto(...)....

Raphael Roth / 03 января 2019
0 голосов
0 ответов

У меня очень большая коллекция записей JSON, организованная следующим образом для HDFS: / год /...

kyrre / 03 января 2019
0 голосов
2 ответов

У меня есть данные в формате паркета, которые слишком велики, чтобы уместиться в память (6 ГБ). Я...

Sjoseph / 02 января 2019
0 голосов
0 ответов
0 голосов
1 ответ

Я пытаюсь прочитать файл Parquet в фрейм данных Pandas.Используя приведенный ниже API (или даже...

idazuwaika / 31 декабря 2018
0 голосов
2 ответов

У меня есть файл паркета, и я хочу прочитать первые n строки из файла во фрейм данных Pandas.То,...

Sanchit Kumar / 31 декабря 2018
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...