Один из подходов заключается в следующем:
Извлечь образ разработки докера
$ Тензор потока / обслуживание Docker: latest-devel
В контейнере внесите изменения в код
$ docker run -it tenorflow / serve: latest-devel
Измените код, чтобы добавить зависимость op здесь .
В контейнере создайте TensorFlow Serving
контейнер: $ tenorflow_serving / model_servers: tensorflow_model_server && cp bazel-bin /ensorflow_serving / model_servers /ensorflow_model_server / usr / local / bin /
Используйте команду выхода для выхода из контейнера
Найдите идентификатор контейнера:
$ docker ps
Используйте этот идентификатор контейнера для фиксации образа разработки:
$ docker commit $ USER / tf-Обслуживание-devel-custom-op
Теперь создайтеобслуживающий контейнер, использующий контейнер разработки в качестве источника
$ mkdir / tmp / tfserving
$ cd / tmp / tfserving
$ git clone https://github.com/tensorflow/serving.
$ сборка докера -t $ USER / tenorflow-Обслуживание --build-arg TF_SERVING_BUILD_IMAGE = $ USER / tf-Обслуживание-devel-custom-op -f tenorflow_serving / tools / docker / Dockerfile.
Теперь вы можете использовать $ USER / tenorflow-serve для обслуживания вашего изображения в соответствии с Docker instructions