Сервер модели TensorFlow - не удалось разрешить POST хоста - PullRequest
0 голосов
/ 06 августа 2020

Я новичок в TensorFlow (использую 1.13) и пытаюсь построить модель TF и ​​обслуживать ее на сервере модели тензорного потока docker. Я экспортировал свою модель, установил docker и запустил свой docker контейнер с помощью команды:

docker run -p 8501: 8501 --name SN_TFlow --mount type = bind, source = / tmp / service_model / export, target = / models -e MODEL_NAME = 1596551653 -t tensorflow / serve &

Я вижу, что мой контейнер работает, и строка: «I tenorflow_serving / model_servers / server. cc: 375] Экспорт HTTP / REST API на: localhost: 8501 ... "в клиенте, который, кажется, указывает, что все запущено и работает в соответствии с do c.

Docker log view

However when I try to test my model with the curl command: $ curl -d ‘{"test_value": [40]}' \ -X POST http://localhost:8501/1/models/1596551653:predict

I get a message saying: URL bad/illegal format or missing url Could not resolve host POST and I get a 404 message.

введите описание изображения здесь Я также пробовал просто curl http://localhost: 8501 / models / 1/1596551653, но тоже получил Not found. Есть идеи, что мне не хватает? Спасибо

...