Прогнозирование модели Pytorch в производстве с помощью UWSGI - PullRequest
0 голосов
/ 12 мая 2019

У меня проблема с развертыванием модели pytorch на производстве.Для демонстрации я создаю простую модель и приложение для колб.Я положил все в докер-контейнер (pytorch + flask + uwsgi) плюс еще один контейнер для nginx.Все работает хорошо, мое приложение отображается, и я могу перемещаться внутри.Тем не менее, хорошо я перехожу к URL, который запускает прогноз модели, сервер зависает и, похоже, ничего не вычисляет.

uWSGI запускается так:

/opt/conda/bin/uwsgi --ini  /usr/src/web/uwsgi.ini

с uwsgi.ini

[uwsgi]
#application's base folder
chdir = /usr/src/web/
#python module to import
wsgi-file = /usr/src/web/wsgi.py
callable = app
#socket file's location
socket = /usr/src/web/uwsgi.sock
#permissions for the socket file
chmod-socket = 666
# Port to expose
http = :5000
# Cleanup the socket when process stops
vacuum = true
#Log directory
logto = /usr/src/web/app.log
# minimum number of workers to keep at all times
cheaper = 2
processes = 16

Как уже говорилось, сервер зависает, и я, наконец, получил тайм-аут.Что странно, когда я запускаю приложение колбы напрямую (также в контейнере) с

python /usr/src/web/manage.py runserver --host 0.0.0.0 

Я получаю свой прогноз в кратчайшие сроки

...