Я хотел бы обслуживать обученную модель с подачей тензорного потока.Я обучал модель партиями, это стандартный сценарий.Я хотел бы обслуживать и получать индивидуальные запросы, а также оставить пакетирование в функции пакетирования Tensorflow Serving .Поэтому я хотел бы сохранить модель, игнорируя те партии, которые я делал для тренировок.Проблема заключается в следующей части кода, которая делает размер пакета частью графика:
initial_states = [LSTMStateTuple(tf.zeros([batch_size_i, n_hidden], tf.float32),
tf.zeros([batch_size_i, n_hidden], tf.float32)) for _
in range(n_layers)]
Когда я пытаюсь вызвать сервер с одним экземпляром, я получаю сообщение об ошибке, что ожидается размер обучающего пакета,Я обнаружил, что обходной путь был опубликован здесь , но это не похоже на то, как это должно было быть сделано.Как правильно определить и сохранить модель после обучения, как сервер моделей будет выполнять пакетирование?