В ваших конкретных обстоятельствах (очень ограниченный доступ к ресурсам AWS) и вашим наблюдением
Используйте aws s3 ls s3: // the_bucket / local_location, чтобы найти все файлы в корзине и сравнить с индексом файлов, которые я ранее скачал, и которые я не хочу загружать снова. aws s3 ls очень быстро , однако, Я должен вызывать aws s3 cp s3: // the_bucket / the_file local_location один за другим, что очень медленно.
Я считаю, что третий вариант - ваша лучшая ставка, хотя с некоторыми замечаниями
1 /
aws s3 ls
очень быстро
Возможно, вы захотите убедиться, что вы получили все нужные вам файлы, и это действительно так быстро, как вы заметили. Когда количество возвращаемых ключей превышает 1000, вам нужно иметь дело с маркером / нумерацией страниц, чтобы сделать больше звонков
2 /
Мне нужно позвонить aws s3 cp s3://the_bucket/the_file local_location
один за другим, который очень медленный.
Когда вы занимаетесь автоматизацией, она не должна быть медленнее, чем ваша система способна. Скорее всего, вы будете ограничены только пропускной способностью вашего Интернета. Подумайте о том, чтобы сделать несколько процессов, если у вас есть тонна небольших файлов, и настройте параллельный аспект CLI , а также