Развертывание больших моделей ML с несколькими работниками RQ - PullRequest
0 голосов
/ 09 апреля 2020

В настоящее время у меня есть большие модели машинного обучения. Я построил простое flask приложение для моделей и использую python -rq, чтобы работники могли выполнять мои задачи прогнозирования в фоновом режиме.

Для моделей, которые я использую, требуются большие двоичные файлы только для чтения (около 8 ГБ) которые не загружаются быстро и кушают много памяти. Можно ли будет загрузить модель один раз и разрешить ее использование несколькими работниками.

...