Я устанавливаю локальный сервер для сборки и обучения моделей ML с моей командой.То, как я делал это в прошлом, было таким:
- Каждый индивидуально устанавливает необходимые зависимости на своей машине.(CUDA, cuDNN, Java, Python и т. Д.)
- Каждый вносит свой вклад в проект, управление версиями через Git.
- Когда все будет сделано, SSH на сервер, чтобы вытащить проект.
- Установка зависимостей, необходимых для запуска проекта на сервере.
Я нахожу это, когда делаю так, большую часть времени тратится на решение проблем с зависимостями, и он крайне неэффективен.(особенно установка Tensorflow с поддержкой GPU в Ubuntu!)
В последнее время я изучаю другие варианты, такие как использование Docker (поскольку Tensorflow также рекомендует его) с Jupyter, чтобы я мог легко управлять изображениями с помощью изображений Docker.Однако я не уверен, что это лучший способ сделать это, особенно из-за случая, когда я крайне незнаком с Docker и Jupyter, и может ли он поддерживать многопользовательское сотрудничество.Я знаком только с созданием материалов с IDE и использованием их с Git.
Буду признателен, если я смогу получить некоторые предложения о том, как мне поступить по этому поводу.Пожалуйста, спросите больше, если вам нужно больше спецификаций.Спасибо.
РЕДАКТИРОВАТЬ:
Ограничения:
- Облачные решения, такие как AWS, Google Cloud ML не вариант из-за данныхвопросы конфиденциальности.