Я следую этому официальному учебнику по тензорному потоку , чтобы построить модель классификации текста
Я экспортирую обученную модель как таковую
serving_input_fn = tf.estimator.export.build_parsing_serving_input_receiver_fn(tf.feature_column.make_parse_example_spec([embedded_text_feature_column]))
export_path = estimator.export_saved_model("./models/sentiment", serving_input_fn)
Я не был уверен, как передать примерное предложение (например, «это был отличный мов ie»), чтобы сделать прогноз при загрузке.
imported = tf.saved_model.load(b'./models/sentiment/1586848142')
infer = imported.signatures["serving_default"]