В моем проекте пользователи загружают изображения в корзину S3.Я создал тензорную модель пересчета потока для интерпретации содержимого изображения.На основании интерпретации тензорного потока данные должны храниться в экземпляре эластичного поиска.
Для этого я создал S3 Bucket, лямбда-функцию, которая запускается при загрузке изображения, и экземпляр AWSasticsearch.Так как мои модели tf большие, я сжал их, положил в корзину S3 и загрузил URL-адрес s3 в lambda.
Проблема: поскольку мои разархивированные файлы были размером более 266 МБ, я не смог выполнить лямбда-функцию.
Альтернативный подход: вместо S3 Bucket - я думаю о создании экземпляра ec2 - сбольший размер тома для хранения изображений и получения изображений непосредственно в экземпляр ec2 вместо s3.Однако, поскольку я буду получать изображения миллионами в течение года, я не уверен, что это будет масштабируемым.