Как мне нужно изменить экспорт модели keras для приема строки b64 в RESTful API / Google cloud ML - PullRequest
0 голосов
/ 05 июля 2018

Полный код для экспорта модели: (я уже обучил его и теперь загружаю из файла весов)

def cnn_layers(inputs):
  conv_base= keras.applications.mobilenetv2.MobileNetV2(input_shape=(224,224,3), input_tensor=inputs, include_top=False, weights='imagenet')
  for layer in conv_base.layers[:-200]:
    layer.trainable = False
  last_layer = conv_base.output
  x = GlobalAveragePooling2D()(last_layer)
  x= keras.layers.GaussianNoise(0.3)(x)
  x = Dense(1024,name='fc-1')(x)
  x = keras.layers.BatchNormalization()(x)
  x = keras.layers.advanced_activations.LeakyReLU(0.3)(x)
  x = Dropout(0.4)(x)
  x = Dense(512,name='fc-2')(x)
  x = keras.layers.BatchNormalization()(x)
  x = keras.layers.advanced_activations.LeakyReLU(0.3)(x)
  x = Dropout(0.3)(x)
  out = Dense(10, activation='softmax',name='output_layer')(x)
  return out

model_input = layers.Input(shape=(224,224,3))

model_output = cnn_layers(model_input)

test_model = keras.models.Model(inputs=model_input, outputs=model_output)

weight_path = os.path.join(tempfile.gettempdir(), 'saved_wt.h5')

test_model.load_weights(weight_path)

export_path='export'
from tensorflow.python.saved_model import builder as saved_model_builder
from tensorflow.python.saved_model import utils
from tensorflow.python.saved_model import tag_constants, signature_constants
from tensorflow.python.saved_model.signature_def_utils_impl import build_signature_def, predict_signature_def
from tensorflow.contrib.session_bundle import exporter

builder = saved_model_builder.SavedModelBuilder(export_path)

signature = predict_signature_def(inputs={'image': test_model.input},
                                  outputs={'prediction': test_model.output})

with K.get_session() as sess:
    builder.add_meta_graph_and_variables(sess=sess,
                                         tags=[tag_constants.SERVING],
                                         signature_def_map={'predict': signature})
    builder.save()

И вывод (dir 1 имеет saved_model.pb и models dir):
python /tensorflow/python/tools/saved_model_cli.py show --dir /1 --all это

MetaGraphDef with tag-set: 'serve' contains the following SignatureDefs:

signature_def['predict']:
  The given SavedModel SignatureDef contains the following input(s):
    inputs['image'] tensor_info:
        dtype: DT_FLOAT
        shape: (-1, 224, 224, 3)
        name: input_1:0
  The given SavedModel SignatureDef contains the following output(s):
    outputs['prediction'] tensor_info:
        dtype: DT_FLOAT
        shape: (-1, 107)
        name: output_layer/Softmax:0
  Method name is: tensorflow/serving/predict

Чтобы принять строку b64: Код был написан для (224, 224, 3) numpy array. Итак, изменения, которые я сделал для приведенного выше кода:

  • _bytes должен быть добавлен к вводу при передаче как b64. Итак,

predict_signature_def(inputs={'image':......
изменено на
predict_signature_def(inputs={'image_bytes':.....

  • Ранее type(test_model.input) было: (224, 224, 3) и dtype: DT_FLOAT. Таким образом,

signature = predict_signature_def(inputs={'image': test_model.input},..... изменено на ( ссылка )
temp = tf.placeholder(shape=[None], dtype=tf.string)
signature = predict_signature_def(inputs={'image_bytes': temp},.....

Edit:
Код для отправки с использованием запросов: (как указано в комментариях)

encoded_image = None
with open('/1.jpg', "rb") as image_file:
    encoded_image = base64.b64encode(image_file.read())
object_for_api = {"signature_name": "predict",
                  "instances": [
                      {
                           "image_bytes":{"b64":encoded_image}
                           #"b64":encoded_image (or this way since "image" is not needed)
                      }]
                  }

p=requests.post(url='http://localhost:8501/v1/models/mnist:predict', json=json.dumps(object_for_api),headers=headers)
print(p)

Я получаю <Response [400]> ошибку. Я думаю, что в способе отправки нет ошибок. Что-то должно быть изменено в коде для экспорта модели и, в частности, в
temp = tf.placeholder(shape=[None], dtype=tf.string).

Ответы [ 2 ]

0 голосов
/ 16 июля 2018

Два примечания:

  1. Я рекомендую вам использовать tf.saved_model.simple_save
  2. Вы можете найти model_to_estimator удобным.
  3. Хотя ваша модель, похоже, будет работать для запросов (выходные данные saved_model_cli показывают, что внешнее измерение равно None для входов и выходов), отправка массивов JSON с плавающей запятой довольно неэффективна

В заключение, часто проще изменить код, чтобы он выполнялся на стороне сервера декодирования изображений, поэтому вы отправляете JPG или PNG в кодировке base64 по проводам вместо массива с плавающей точкой. Вот один пример для Keras (я планирую обновить этот ответ более простым кодом).

0 голосов
/ 05 июля 2018

Глядя на предоставленные вами документы, вы должны взять изображение и отправить его в API. Изображения легко переносятся в текстовом формате, если вы их кодируете, base64 в значительной степени стандарт. Итак, мы хотим создать объект json с изображением в виде base64 в нужном месте, а затем отправить этот объект json в API REST. Python имеет библиотеку запросов, которая делает отправку в словаре Python как JSON очень простой.

Итак, возьмите изображение, закодируйте его, поместите в словарь и отправьте с помощью запросов:

import requests
import base64

encoded_image = None
with open("image.png", "rb") as image_file:
    encoded_image = base64.b64encode(image_file.read())

object_for_api = {"signature_name": "predict",
                  "instances": [
                      {
                          "image": {"b64": encoded_image}
                      }]
                  }

requests.post(url='http://localhost:8501/v1/models/mnist:predict', json=object_for_api)

Вы также можете закодировать ваш массивный массив в JSON, но не похоже, что API документы ищут это.

...