Я делаю cnn-text -ification-tf . Моя цель - сделать прогноз из замороженного графика.
Мой вопрос заключается в том, как сделать прогноз на основе замороженного графика. Я нашел отличный урок https://blog.metaflow.fr/tensorflow-how-to-freeze-a-model-and-serve-it-with-a-python-api-d4f3596b3adc., где он реализует замороженный график с помощью колбы.
Я использую код фляги, как показано ниже, чтобы сделать прогноз.
import json, argparse, time
import tensorflow as tf
from linkedin import load_graph
from flask import Flask, request
from flask_cors import CORS
##################################################
# API part
##################################################
app = Flask(__name__)
cors = CORS(app)
@app.route("/api/predict", methods=['POST'])
def predict():
start = time.time()
data = request.data.decode("utf-8")
if data == "":
params = request.form
x_in = json.loads(params['x'])
else:
params = json.loads(data)
x_in = params['x']
##################################################
# Tensorflow part
##################################################
y_out = persistent_sess.run(y, feed_dict={
x: x_in
# x: [[3, 5, 7, 4, 5, 1, 1, 1, 1, 1]] # < 45
})
##################################################
# END Tensorflow part
##################################################
json_data = json.dumps({'y': y_out.tolist()})
print("Time spent handling the request: %f" % (time.time() - start))
return json_data
##################################################
# END API part
##################################################
if __name__ == "__main__":
parser = argparse.ArgumentParser()
parser.add_argument("--frozen_model_filename", default="frozen_model2.pb", type=str, help="Frozen model file to import")
parser.add_argument("--gpu_memory", default=.2, type=float, help="GPU memory per process")
args = parser.parse_args()
##################################################
# Tensorflow part
##################################################
print('Loading the model')
graph = load_graph(args.frozen_model_filename)
x = graph.get_tensor_by_name('prefix/input_x:0')
y = graph.get_tensor_by_name('prefix/output/predictions:0')
print('Starting Session, setting the GPU memory usage to %f' % args.gpu_memory)
gpu_options = tf.GPUOptions(per_process_gpu_memory_fraction=args.gpu_memory)
sess_config = tf.ConfigProto(gpu_options=gpu_options)
persistent_sess = tf.Session(graph=graph, config=sess_config)
##################################################
# END Tensorflow part
##################################################
print('Starting the API')
app.run()
Я использую терминал на MacOS для запуска этого скрипта
![enter image description here](https://i.stack.imgur.com/73RqD.png)
После запуска я использую почтальон для отправки запроса:
![enter image description here](https://i.stack.imgur.com/2rdZb.png)
Как правильно оформить этот запрос, чтобы получить правильный ответ. Какой точный ввод нужен в Postman в теле?