классификация текста с использованием тензор-хаб-сервера - PullRequest
0 голосов
/ 21 января 2019

Я впервые внедряю модель тензорного потока, используя tf-hub.Я застрял при совершении звонка на сервер.

def input_reciever_fn():
    inputs = {
       "posts" : tf.placeholder(tf.string)
    }
    return tf.estimator.export.ServingInputReceiver(inputs, inputs)

estimator.export_savedmodel(
     './models/resnet/',
      serving_input_receiver_fn=input_reciever_fn)

Я пытаюсь принять строку в качестве ввода.При обращении к порту Docker с использованием Server_URL и Предиката_требования в качестве входных данных.

SERVER_URL = 'http://localhost:8501/v1/models/resnet:predict'
predict_request = '{"inputs" : [{"posts": "sample tweet"}]}'
response = requests.post(SERVER_URL,data = predict_request)

Я получаю ошибку:

{"ошибка": "Значение JSON: {\ n \" posts \ ": [\ n \" foo \ "\ n] \ n} неправильно отформатировано для данных base64"}

Что я делаю не так?Это моя модель метаданных

        "predict"   : {
       "inputs": {
        "posts": {
         "dtype": "DT_STRING",
         "tensor_shape": {
          "dim": [],
          "unknown_rank": true
         },
         "name": "Placeholder:0"
        }
       },
       "outputs": {
        "classes": {
         "dtype": "DT_STRING",
         "tensor_shape": {
          "dim": [
           {
            "size": "-1",
            "name": ""
           },
           {
            "size": "1",
            "name": ""
           }
          ],
          "unknown_rank": false
         },
         "name": "dnn/head/predictions/str_classes:0"
        },
...