Я пытаюсь добавить несколько model_spec и их соответствующие входные данные в один predict_pb2.PredictRequest()
следующим образом:
tmp = predict_pb2.PredictRequest()
tmp.model_spec.name = '1'
tmp.inputs['tokens'].CopyFrom(make_tensor_proto([1,2,3]))
tmp.model_spec.name = '2'
tmp.inputs['tokens'].CopyFrom(make_tensor_proto([4,5,6]))
Но я только получаю информацию 2
:
>> tmp
model_spec {
name: "2"
}
inputs {
key: "tokens"
value {
dtype: DT_INT32
tensor_shape {
dim {
size: 3
}
}
tensor_content: "\004\000\000\000\005\000\000\000\006\000\000\000"
}
}
Как я могу получить один PredictRequest () для нескольких моделей с соответствующими входами?
Моя цель состоит в том, чтобы создать один запрос и отправить его в службу tenorflow, обслуживающую две модели. Есть ли другой способ обойти это? Создание двух отдельных запросов для обеих моделей и получение результатов от tf_serving один за другим работает, но мне интересно, могу ли я просто объединить два запроса в один.