Я пытаюсь развернуть модель сегментации изображений с тензорным потоком в производство, используя платформу AI Google Cloud.Ранее я успешно развернул пользовательскую модель классификации изображений на платформе AI, но при попытке развернуть пользовательскую модель сегментации с помощью:
gcloud ai-platform predict --model=%MODEL_NAME% --json-instances="C:\Users\umara\Desktop\DLOCTseg\Normal Image.json" --verbosity debug
я сталкиваюсь со следующей ошибкой
ERROR: (gcloud.ai-platform.predict) HTTP request failed. Response: {
"error": {
"code": 500,
"message": "Internal error encountered.",
"status": "INTERNAL"
}
}
Небольшое приближение ( Обслуживание двигателя ML, похоже, не работает должным образом ) сказало мне, что ошибка может быть связана с слишком большим выходным размером.Мой выходной размер - массив 1 x 512 x 512 x 9 для каждого входного изображения.
Сохраненная модель-cli
saved_model_cli show --all --dir C:\Users\umara\Desktop\DLOCTseg\export\v1
дает:
MetaGraphDef with tag-set: 'serve' contains the following SignatureDefs:
signature_def['serving_default']:
The given SavedModel SignatureDef contains the following input(s):
inputs['bytes'] tensor_info:
dtype: DT_STRING
shape: (-1)
name: image_binary:0
The given SavedModel SignatureDef contains the following output(s):
outputs['conv2d_24'] tensor_info:
dtype: DT_FLOAT
shape: (-1, 512, 512, 9)
name: conv2d_24/Sigmoid:0
Method name is: tensorflow/serving/predict
Как я могу развернуть такую модель в облаке Google, используя платформу AI?Существует ли ручной способ развертывания моей модели сегментации большого выходного изображения с помощью Docker / Kubernetes (есть ли руководство для этого)?Будем благодарны за любую помощь, касающуюся развертывания этой пользовательской модели на сервере в Google Cloud и удаленного доступа к прогнозированию.Спасибо