Я преобразую модель tenorflow.keras в оценщик и использую estimator.export_saved_mode(serving_input_receiver_fn=serving_input_receiver_fn)
, чтобы подготовить мою модель для обслуживания TensorFlow.Вот как выглядит мой serving_input_receiver_fn
:
def image_preprocessing(image):
image = tf.expand_dims(image, 0)
image = tf.image.resize_bilinear(image, [HEIGHT, WIDTH], align_corners=False)
image = tf.squeeze(image, axis=[0])
image = tf.cast(image, dtype=tf.uint8)
return image
def serving_input_receiver_fn():
def prepare_image(image_str_tensor):
image = tf.image.decode_jpeg(image_str_tensor, channels=CHANNELS)
return image_preprocessing(image)
input_ph = tf.placeholder(tf.string, shape=[None], name='image_binary')
images_tensor = tf.map_fn(prepare_image, input_ph, back_prop=False, dtype=tf.uint8)
images_tensor = tf.image.convert_image_dtype(images_tensor, dtype=tf.float32)
return tf.estimator.export.ServingInputReceiver(
{model.input_names[0]: images_tensor},
{'image_bytes': input_ph})
Есть ли способ продолжить принимать uint8 в качестве входных данных, но преобразовать его в float32 и затем применить функцию предварительной обработки tenorflow.keras, такую как tensorflow.keras.applications.xception.preprocess_input
?
Я не уверен, как нормализовать этот вход в соответствии со средним / стандартным значением модели tenorflow.keras.applications.Перед добавлением вышеупомянутого моя модель приняла сериализованные списки json массивов json, и я бы нормализовал их на стороне клиента.Теперь, когда он принимает байтовые строки в кодировке uint8 base64, я не уверен, как переместить нормализацию керасов на эту функцию.