Настройка локального обучающего сервера Tensorflow с возможностью совместной работы нескольких пользователей - PullRequest
0 голосов
/ 25 сентября 2018

Я устанавливаю локальный сервер для сборки и обучения моделей ML с моей командой.То, как я делал это в прошлом, было таким:

  1. Каждый индивидуально устанавливает необходимые зависимости на своей машине.(CUDA, cuDNN, Java, Python и т. Д.)
  2. Каждый вносит свой вклад в проект, управление версиями через Git.
  3. Когда все будет сделано, SSH на сервер, чтобы вытащить проект.
  4. Установка зависимостей, необходимых для запуска проекта на сервере.

Я нахожу это, когда делаю так, большую часть времени тратится на решение проблем с зависимостями, и он крайне неэффективен.(особенно установка Tensorflow с поддержкой GPU в Ubuntu!)

В последнее время я изучаю другие варианты, такие как использование Docker (поскольку Tensorflow также рекомендует его) с Jupyter, чтобы я мог легко управлять изображениями с помощью изображений Docker.Однако я не уверен, что это лучший способ сделать это, особенно из-за случая, когда я крайне незнаком с Docker и Jupyter, и может ли он поддерживать многопользовательское сотрудничество.Я знаком только с созданием материалов с IDE и использованием их с Git.

Буду признателен, если я смогу получить некоторые предложения о том, как мне поступить по этому поводу.Пожалуйста, спросите больше, если вам нужно больше спецификаций.Спасибо.

РЕДАКТИРОВАТЬ:

Ограничения:

  1. Облачные решения, такие как AWS, Google Cloud ML не вариант из-за данныхвопросы конфиденциальности.
...