Как упаковать модель tenorflow-gpu для работы на большинстве машин? - PullRequest
0 голосов
/ 08 июля 2019

Версия Tensorflow GPU, версия драйвера nvidia, версия cudnn имеет специальную матрицу совместимости. Эта матрица совместимости создает проблему в упаковке и распределении модели тензорного потока, которая может выполняться другими без каких-либо хлопот, когда я передаю их. Технологии, основанные на контейнерах (например, docker), также будут иметь проблемы, поскольку не будут знать версию драйвера nvidia. Мне интересно, знает ли кто-нибудь лучший способ упаковать модель tenorflow, которая может автоматически конфигурироваться в соответствии с базовым драйвером nvidia в системе linux. Как мне этого добиться?

1 Ответ

1 голос
/ 08 июля 2019

Самый простой способ - использовать тензор потока изображения с докером https://hub.docker.com/r/tensorflow/tensorflow/ а для GPU вы можете использовать инструменты nvidia с предварительно установленным существующим образом или добавить его в файл Docker ..

...