У меня есть чуть более 1200 JSON-файлов в AWS S3, которые мне нужно преобразовать в Parquet и разбить на более мелкие файлы (я готовлю их для Redshift Spectrum).Я пытался создать лямбда-функцию, которая делает это для меня для каждого файла.Но выполнение функции занимает слишком много времени или занимает много памяти и поэтому заканчивается до завершения.Файлы около 3-6 ГБ.
Кстати.Я использую Python.
Я не хочу запускать EC2 для этого, так как на это уходит вечность.
Я хотел бы получить совет о том, как этого добиться.