Ошибка при прогнозировании вызова с вводом base 64 - PullRequest
0 голосов
/ 20 ноября 2018

Я использую пример концентратора Tensorflow, чтобы экспортировать сохраненную_модель для обслуживания с использованием Tensorflow с использованием Docker.(https://github.com/tensorflow/hub/blob/master/examples/image_retraining/retrain.py)

Я просто следовал некоторой инструкции в интернете и изменил export_model, как показано ниже

def export_model(module_spec, class_count, saved_model_dir):
  """Exports model for serving.

  Args:
    module_spec: The hub.ModuleSpec for the image module being used.
    class_count: The number of classes.
    saved_model_dir: Directory in which to save exported model and variables.
  """
  # The SavedModel should hold the eval graph.
  sess, in_image, _, _, _, _ = build_eval_session(module_spec, class_count)

  # Shape of [None] means we can have a batch of images.
  image = tf.placeholder(shape=[None], dtype=tf.string)

  with sess.graph.as_default() as graph:
    tf.saved_model.simple_save(
        sess,
        saved_model_dir,
        #inputs={'image': in_image},
        inputs = {'image_bytes': image},
        outputs={'prediction': graph.get_tensor_by_name('final_result:0')},
        legacy_init_op=tf.group(tf.tables_initializer(), name='legacy_init_op')
    )

Проблема в том, что когда я пытаюсь вызвать API с помощью почтальона, он пришел с этой ошибкой

{
    "error": "Tensor Placeholder_1:0, specified in either feed_devices or fetch_devices was not found in the Graph"
}

Нужно ли изменить процесс переподготовки, чтобы он мог принимать ввод base64?

...