Импорт большого количества файлов из S3 в Aurora (PostgreSQL) - PullRequest
0 голосов
/ 25 октября 2019

В настоящее время я использую предлагаемое расширение aws_s3.table_import_from_s3 для импорта множества больших .csv.gz файлов из S3 в Aurora.

Однако это все еще действительно занимает много времени. У нас более 60 тыс. Файлов, каждый размером более 150 МБ.

В настоящее время у меня есть скрипт, который просматривает файлы. Я понимаю, что мы могли бы распараллелить это, но даже на самых мощных блоках, доступных для нашего безсерверного Aurora, мы достигли довольно высокой загрузки процессора. Могу ли я что-нибудь сделать для массового импорта по более высокой ставке?

...