В настоящее время я пытаюсь настроить обслуживающий клиент TensorFlow, задача которого состоит в обработке очереди сообщений следующего формата:
{
"model_url":"http://path/to/some/model",
"image_url":"http://path/to/some/image"
}
Другими словами, в каждом сообщении указано, какое изображениеследует прогнозировать использование какой модели.В идеале мне не нужно указывать дополнительную информацию в очереди, чтобы это работало.
Однако есть две проблемы.Размер входного изображения может варьироваться, тогда как ожидаемый размер входного сигнала является фиксированным (определяется моделью).Таким образом, клиент должен изменить размер изображения версии.Для этого он должен знать ожидаемый входной размер.
Поэтому мой конкретный вопрос : если я знаю model_url
, есть ли способ сделать запрос на обслуживание TensorFlow?сервер, чтобы он сказал мне, как выглядит ожидаемая форма ввода?Похоже, мне нужно было бы знать метки, связанные с предсказаниями, которые дает модель (например, «кошка», «собака» и т. Д., Если бы мы делали классификацию изображений).
То, что я ищу, будетбыть в духе следующего псевдокода:
request_dict = {
"meta_info":["input_shape", "labels"]
}
response = requests.post(model_url, data=json.dumps(request_dict))
input_shape = response["input_shape"]
labels = response["labels"]