У меня есть приложение для колб, которое сначала загружает модель keras, а затем выполняет функцию прогнозирования. Согласно этому ответу я сохраняю график тензорного потока в глобальной переменной и использую тот же график для функции прогнозирования.
def load_model():
load_model_from_file()
global graph
graph = tf.get_default_graph()
def predict():
with graph.as_default():
tagger = Tagger(self.model, preprocessor=self.p)
return tagger.analyze(words)
@app.route('/predict', methods=['GET'])
def load_and_predict():
load_model()
predict()
Однако это приводит к проблеме, когда на сервер отправляется несколько запросов. Как я могу сделать этот код поточно-ориентированным или, если быть более точным, как правильно использовать тензорные графы в многопоточной среде?