Я изо всех сил пытаюсь найти решение для развертывания системы рекомендаций с использованием контейнеров.
Сценарий - Я построил модель TensorFlow и сервер API Django поверх этого.
- Модель сохранена на диске.
- Запросы APi связаны с новыми пользователями, новыми элементами и взаимодействиями новых пользователей / элементов.
- Все эти запросы API загружают модель с диска, повторно обучают модель новой информацией и возвращают обновленные прогнозы.
Проблема - я хочу добавить в контейнер эту вещь для запуска в службах приложений Azure в разделе Веб-приложение для контейнеров. Проблема, с которой я сталкиваюсь, заключается в том, как я могу иметь постоянные тома вдоль контейнера, чтобы сохранить там сохраненную модель?
Насколько мне известно, у меня есть два варианта -
- Используйте хранилище BLOB-объектов Azure для хранения всех файлов модели - но не уверен, будет ли это работать с TensorFlow.
- Использовать объемы контейнера как есть. - Но я боюсь, что если выпустить конвейер выпуска, чтобы уничтожить контейнер и отправить новый контейнер в производство, он удалит все файлы модели и тома будут воссозданы.
Я сейчас довольно заблудился в этом пространстве, не имея четкого представления о том, как найти хороший вариант.