как использовать тензор потока сохраненных_моделей - PullRequest
0 голосов
/ 14 апреля 2020

Я следую этому официальному учебнику по тензорному потоку , чтобы построить модель классификации текста

Я экспортирую обученную модель как таковую

serving_input_fn = tf.estimator.export.build_parsing_serving_input_receiver_fn(tf.feature_column.make_parse_example_spec([embedded_text_feature_column]))
export_path = estimator.export_saved_model("./models/sentiment", serving_input_fn)

Я не был уверен, как передать примерное предложение (например, «это был отличный мов ie»), чтобы сделать прогноз при загрузке.

imported = tf.saved_model.load(b'./models/sentiment/1586848142')
infer = imported.signatures["serving_default"]

1 Ответ

0 голосов
/ 14 апреля 2020

Это то, что нужно для загрузки модели

imported = tf.saved_model.load(export_path)


def predict(x):
    example = tf.train.Example()
    example.features.feature["sentence"].bytes_list.value.extend([x])
    out = imported.signatures["predict"](examples=tf.constant([example.SerializeToString()]))['probabilities']
    return out

x = b"I am happy"
predict(x)
...