Я впервые внедряю модель тензорного потока, используя tf-hub.Я застрял при совершении звонка на сервер.
def input_reciever_fn():
inputs = {
"posts" : tf.placeholder(tf.string)
}
return tf.estimator.export.ServingInputReceiver(inputs, inputs)
estimator.export_savedmodel(
'./models/resnet/',
serving_input_receiver_fn=input_reciever_fn)
Я пытаюсь принять строку в качестве ввода.При обращении к порту Docker с использованием Server_URL и Предиката_требования в качестве входных данных.
SERVER_URL = 'http://localhost:8501/v1/models/resnet:predict'
predict_request = '{"inputs" : [{"posts": "sample tweet"}]}'
response = requests.post(SERVER_URL,data = predict_request)
Я получаю ошибку:
{"ошибка": "Значение JSON: {\ n \" posts \ ": [\ n \" foo \ "\ n] \ n} неправильно отформатировано для данных base64"}
Что я делаю не так?Это моя модель метаданных
"predict" : {
"inputs": {
"posts": {
"dtype": "DT_STRING",
"tensor_shape": {
"dim": [],
"unknown_rank": true
},
"name": "Placeholder:0"
}
},
"outputs": {
"classes": {
"dtype": "DT_STRING",
"tensor_shape": {
"dim": [
{
"size": "-1",
"name": ""
},
{
"size": "1",
"name": ""
}
],
"unknown_rank": false
},
"name": "dnn/head/predictions/str_classes:0"
},