Обслуживание Univeral Sentence Encoder Model с использованием тензорного потока и докера - PullRequest
0 голосов
/ 07 ноября 2019

У меня есть универсальная модель кодировщика предложений, сохраненная на моем локальном диске. Я пытаюсь обслуживать модель в док-контейнере, используя тензор потока.

Команда:

sudo docker run -p 8502:8502 --name tf-serve -v /home/ubuntu/first/models:/models -t tensorflow/serving --model_base_path=/models/test

, где /home/ubuntu/first/models - путь к папке с файлами моей модели.

После запуска изначально он входит в бесконечный цикл.

Что здесь происходит ?! Любая помощь будет оценена.

1 Ответ

0 голосов
/ 07 ноября 2019

измените вашу команду следующим образом:

sudo docker run -p 8502:8502 --name tf-serve -v /home/ubuntu/first/models:/models/test -t tensorflow/serving --model_base_path=/models/test

ваш --model_base_path равен /models/test, поэтому вам нужно скопировать файлы в эту папку в вашем -v

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...