Не удалось запустить docker с экспортированной моделью в модели GoogleCP Vision AutoML - PullRequest
0 голосов
/ 18 марта 2020

Я обучил модель классификации изображений с использованием GCP AutoML Vision и хотел бы развернуть ее в своем собственном веб-приложении, используя Docker. Следуя инструкции из GCP , я экспортировал свою модель Vision autoML в сохраненный_модель.pb и сумел скопировать ее на свой локальный диск.

sudo docker run --rm --name ${CONTAINER_NAME} -p ${PORT}:8501 -v ${YOUR_MODEL_PATH}:/tmp/mounted_model/0001 -t ${CPU_DOCKER_GCR_PATH}

Когда я пытался запустить образ docker, произошла ошибка. Сообщение об ошибке ниже:

2020-03-18 06:52:52.851811: I tensorflow_serving/model_servers/server_core.cc:462] Adding/updating models.
2020-03-18 06:52:52.851825: I tensorflow_serving/model_servers/server_core.cc:559]  (Re-)adding model: default
2020-03-18 06:52:52.859873: I tensorflow_serving/core/basic_manager.cc:739] Successfully reserved resources to load servable {name: default version: 1}
2020-03-18 06:52:52.859923: I tensorflow_serving/core/loader_harness.cc:66] Approving load for servable version {name: default version: 1}
2020-03-18 06:52:52.859938: I tensorflow_serving/core/loader_harness.cc:74] Loading servable version {name: default version: 1}
2020-03-18 06:52:52.860387: I external/org_tensorflow/tensorflow/contrib/session_bundle/bundle_shim.cc:363] Attempting to load native SavedModelBundle in bundle-shim from: /tmp/mounted_model/0001
2020-03-18 06:52:52.860426: I external/org_tensorflow/tensorflow/cc/saved_model/reader.cc:31] Reading SavedModel from: /tmp/mounted_model/0001
2020-03-18 06:52:52.861256: I external/org_tensorflow/tensorflow/cc/saved_model/reader.cc:54] Reading meta graph with tags { serve }
2020-03-18 06:52:52.861345: I external/org_tensorflow/tensorflow/cc/saved_model/loader.cc:310] SavedModel load for tags { serve }; Status: fail. Took 916 microseconds.
2020-03-18 06:52:52.861357: E tensorflow_serving/util/retrier.cc:37] Loading servable: {name: default version: 1} failed: Not found: Could not find meta graph def matching supplied tags: { serve }. To inspect available tag-sets in the SavedModel, please use the SavedModel CLI: `saved_model_cli`

Я провел некоторые исследования в Интернете, похоже, проблема заключается в части экспорта модели, которую GCP не предлагает никаких опций при экспорте модели. Я мог бы действительно использовать помощь, спасибо, ребята.

1 Ответ

0 голосов
/ 27 марта 2020

Похоже, что модель не имеет графика, соответствующего тегу обслуживания .

Я обнаружил похожую проблему на странице Tensorflow github . Чтобы проверить доступные наборы тегов в сохраненной модели, вы можете использовать CLI SavedModel , вы можете использовать сохраненный_модель_cli для проверки тегов:

$ сохраненный_модель_cli show --dir ./modelDir

Я обнаружил, как добавить тег обслуживания в модель из Tensorflow Hub, и кажется, что использование Transfer Learning может помочь вам экспортировать или сохранить модель с тегом обслуживания .

...