разделяют огромный объект памяти между процессами ганкорна - PullRequest
0 голосов
/ 04 ноября 2018

Я запускаю приложение django на веб-сервере nginx, на котором работают 5 рабочих-оружейников (иначе процессы)

Мне нужно инициализировать большой набор данных (модель AI) в память, чтобы вызовы API могли получать данные из него. набор составляет около 200 МБ.

проблема в том, что если каждый процесс gunicorn будет инициировать этот набор данных, то использование памяти (только для этого набора данных) будет 1 ГБ (200 МБ * 5 процессов).

как лучше всего избежать этого? так меньше памяти будет использоваться на моем веб-сервере для этого набора данных?

...