Вопросы с тегом паркет - PullRequest

Вопросы с тегом паркет

0 голосов
1 ответ

Я просмотрел множество стековых ссылок и других блогов, и от всех них есть разные ответы.Все ответы...

Rex / 06 декабря 2018
0 голосов
1 ответ

я хорошо запускаю отправку spark с --master local[*], , но когда я запускаю отправку spark на моем...

SimbaPK / 05 декабря 2018
0 голосов
2 ответов

Я работаю в кластере Spark 2.3 из 5 узлов, каждый из которых имеет 12 ГБ доступной памяти, и...

Roman / 05 декабря 2018
0 голосов
2 ответов

У меня есть приложение ac #, которое создает и загружает файлы паркета в удаленную HDFS.Если я...

dhalfageme / 04 декабря 2018
0 голосов
0 ответов

Мое приложение spark заполняет несколько таблиц SQL, которые обслуживаются службой REST.Данные -...

Igor Gatis / 04 декабря 2018
0 голосов
1 ответ

У меня есть куча паркетных данных в структуре, что-то вроде...

Narfanator / 04 декабря 2018
0 голосов
0 ответов

У меня есть список файлов паркета, хранящихся в каталоге. Теперь мне нужно выполнить операцию...

Rajendra Jangir / 03 декабря 2018
0 голосов
1 ответ

Теперь, когда Spark 2.4 имеет встроенную поддержку формата Avro, я рассматриваю возможность...

user976850 / 01 декабря 2018
0 голосов
0 ответов

Я использую песочницу maprR для тестирования различных настроек в кустах и ​​MaprF.Я получил в...

MayaK / 30 ноября 2018
0 голосов
0 ответов

У меня есть паркетные каталоги, названные так: parquetNames = [NAME1,NAME1_MS,NAME2, NAME2_MQ] Я...

xv70 / 30 ноября 2018
0 голосов
1 ответ

Я пытаюсь записать файл паркета следующим образом в Apache Beam, используя сжатие Snappy records

hlagos / 29 ноября 2018
0 голосов
1 ответ

Когда я запускаю: SELECT anum as anum, COUNT(*) as callCount, SUM(dur*1) as callDuration,...

Richard Octovianus / 29 ноября 2018
0 голосов
1 ответ

чтение файла паркета с помощью spark df = spark.read.parquet("path_to_file") df.show(2)...

Tushar Kolhe / 29 ноября 2018
0 голосов
1 ответ

Я создал файл паркета, используя метод данных dask to_parquet, используя fastparquet в качестве...

Apostolos / 29 ноября 2018
0 голосов
1 ответ

Например, у меня есть набор данных, похожий на этот: dataset ├── a=1 │ └── 1.parquet ├── a=2 │ └──...

XiUpsilon / 29 ноября 2018
0 голосов
2 ответов

У меня есть данные, хранящиеся в файлах паркета и таблице кустов, разделенные по годам, месяцам и...

ira / 28 ноября 2018
0 голосов
0 ответов

Я не могу обработать файл партера. У меня есть фрейм данных с "family_id" типа String и...

Shyam / 27 ноября 2018
0 голосов
0 ответов

У меня есть несколько таблиц (со строками 100 миллионов строк), которые хранятся в виде внешних...

ITnotIT / 26 ноября 2018
0 голосов
0 ответов

Я записываю потоковые данные в файлы паркета, используя spark.И я создал внешнюю таблицу улья,...

Rima / 25 ноября 2018
0 голосов
2 ответов
0 голосов
0 ответов

Когда я пытаюсь прочитать папку, которая предположительно содержит файлы в формате Parquet, все...

skjagini / 22 ноября 2018
0 голосов
2 ответов

У меня есть датафрейм для панд.я хочу записать этот фрейм данных в файл паркета в S3.Мне нужен...

Alexsander / 21 ноября 2018
0 голосов
1 ответ

Я написал скрипт на python 2.7, который использует pyspark для преобразования csv в паркет и другие...

Pythonist / 21 ноября 2018
0 голосов
1 ответ

У меня есть локальная папка на linux с тысячами CSV-файлов. Каждый CSV-файл имеет размер ~ 1 МБ....

Nir / 20 ноября 2018
0 голосов
1 ответ

У меня ~ 250 папок.Каждая папка в день.Каждая папка содержит 24 паркетных файла.Мне нужно прочитать...

Amir H. / 20 ноября 2018
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...