У меня есть ведро S3 с большим количеством паркетных разделенных файлов внутри каждого раздела. Все файлы в корзине очень важны для бизнеса, и если кто-то их удалит, это будет катастрофой. Теперь, если я использую Glacier / Glacier D.Arch., Я опасаюсь, что мои затраты на поиск в случае отказа будут слишком высокими из-за количества отдельных паркетных файлов. Как мне лучше всего создать аварийное восстановление для такой корзины с наименьшими затратами? (Предполагая, что пользователи не удаляют необходимые данные каждый месяц из c.)
Пример случая: Учтите, у меня 100 ГБ данных, заполненных файлами по 150 КБ. Ежегодная дополнительная стоимость 1 случайного удаления в Glacier составляет 53 доллара США, а на Glacier Deep Arch - 82,4 доллара США. Теперь просто измените размер файла со 150 КБ на 1024 КБ. Эти затраты изменятся на 21 доллар США для Glacier и 16 долларов США для Glacier Deep Arch. Моя основная проблема - количество паркетных пилок, которые повышают стоимость доступного поиска.