Я использую пример концентратора Tensorflow, чтобы экспортировать сохраненную_модель для обслуживания с использованием Tensorflow с использованием Docker.(https://github.com/tensorflow/hub/blob/master/examples/image_retraining/retrain.py)
Я просто следовал некоторой инструкции в интернете и изменил export_model, как показано ниже
def export_model(module_spec, class_count, saved_model_dir):
"""Exports model for serving.
Args:
module_spec: The hub.ModuleSpec for the image module being used.
class_count: The number of classes.
saved_model_dir: Directory in which to save exported model and variables.
"""
# The SavedModel should hold the eval graph.
sess, in_image, _, _, _, _ = build_eval_session(module_spec, class_count)
# Shape of [None] means we can have a batch of images.
image = tf.placeholder(shape=[None], dtype=tf.string)
with sess.graph.as_default() as graph:
tf.saved_model.simple_save(
sess,
saved_model_dir,
#inputs={'image': in_image},
inputs = {'image_bytes': image},
outputs={'prediction': graph.get_tensor_by_name('final_result:0')},
legacy_init_op=tf.group(tf.tables_initializer(), name='legacy_init_op')
)
Проблема в том, что когда я пытаюсь вызвать API с помощью почтальона, он пришел с этой ошибкой
{
"error": "Tensor Placeholder_1:0, specified in either feed_devices or fetch_devices was not found in the Graph"
}
Нужно ли изменить процесс переподготовки, чтобы он мог принимать ввод base64?