У меня есть модель обнаружения объектов Tensorfloww, обслуживаемая с помощью Docker-контейнера tenorflow_serving.Я хочу создать колбу API поверх обслуживающего сервера Tensorflow.Я с трудом понимаю, как создать флягу поверх уже запущенного Tensorflow_serving (размещенного на локальном порту).
Любая помощь очень ценится!