У меня проблема с развертыванием модели pytorch на производстве.Для демонстрации я создаю простую модель и приложение для колб.Я положил все в докер-контейнер (pytorch + flask + uwsgi) плюс еще один контейнер для nginx.Все работает хорошо, мое приложение отображается, и я могу перемещаться внутри.Тем не менее, хорошо я перехожу к URL, который запускает прогноз модели, сервер зависает и, похоже, ничего не вычисляет.
uWSGI запускается так:
/opt/conda/bin/uwsgi --ini /usr/src/web/uwsgi.ini
с uwsgi.ini
[uwsgi]
#application's base folder
chdir = /usr/src/web/
#python module to import
wsgi-file = /usr/src/web/wsgi.py
callable = app
#socket file's location
socket = /usr/src/web/uwsgi.sock
#permissions for the socket file
chmod-socket = 666
# Port to expose
http = :5000
# Cleanup the socket when process stops
vacuum = true
#Log directory
logto = /usr/src/web/app.log
# minimum number of workers to keep at all times
cheaper = 2
processes = 16
Как уже говорилось, сервер зависает, и я, наконец, получил тайм-аут.Что странно, когда я запускаю приложение колбы напрямую (также в контейнере) с
python /usr/src/web/manage.py runserver --host 0.0.0.0
Я получаю свой прогноз в кратчайшие сроки