Развертывание модели глубокого обучения, которая требует ввода большого файла? - PullRequest
0 голосов
/ 31 января 2020

Я пытаюсь внедрить модель глубокого обучения в производство, используя AWS. Входными данными для моей модели является большая папка, состоящая из сотен изображений (изображения volumetri c, поэтому я не могу отправить их одно за другим). Теперь, согласно моим исследованиям, есть два варианта, о которых я знаю:

  1. Клиент загружает на S3 через API. Данные копируются в экземпляр EC2 (где находится модель) для вывода и возвращают прогноз при запуске облачной функцией (например, AWS Lambda). Инициировать события можно по запросу клиента или после завершения загрузки на S3.

    Проблема с этим методом, по-видимому, заключается в том, что время, необходимое для передачи файлов между экземплярами S3 и EC2, кажется очень большим и недопустимым для ввода в эксплуатацию.

  2. Файл потоковая передача по HTTP POST.

    Теперь я очень мало знаю об этом методе, так как все еще ищу способ сделать это, и я наткнулся на некоторые термины, такие как stream с контекстом .

Любая помощь по этому вопросу будет полезна. Если есть какие-либо другие методы или какие-либо модификации вышеупомянутых методов, которые бы сделали эту работу? Ниже упоминаются некоторые дополнительные детали:

Используемые инструменты и языки: Python 3, PyTorch, AWS

Формат ввода: несколько изображений в папках (сжатые или разархивированные), ~ 100 МБ

Формат вывода: json, возможно, небольшие файлы ~ 5 МБ

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...