Я развернул небольшую веб-службу (флягу) в Google AppEngine с этой конфигурацией app.yaml
manual_scaling:
instances: 1
resources:
cpu: 1
memory_gb: 0.5
disk_size_gb: 10
У меня есть конечная точка для прогнозирования, является ли предложение токсичным, к сожалению, вызов конечной точки иногда очень медленныйи иногда быстро.
Конечно, я загружаю модель только один раз, а не при каждом запросе.При запуске колбы с резьбой это False.
list_classes = ["toxic", "severe_toxic", "obscene", "threat", "insult", "identity_hate"]
with open('tokenizer.pkl', 'rb') as handler:
tokenizer = pickle.load(handler)
model = load_model('m.hdf5')
app = Flask(__name__)
def prediction(sentence):
list_tokenized_train = tokenizer.texts_to_sequences([sentence])
maxlen = 200
X_t = pad_sequences(list_tokenized_train, maxlen=maxlen)
pred = model.predict(X_t)[0]
dic = {}
for idx, prob in enumerate(pred):
dic[list_classes[idx]] = float(prob)
return dict(sorted(dic.items(), reverse=True, key=lambda x: x[1]))
@app.route('/api/v1/predict/<comment>', methods=['GET'])
def predict(comment):
result = prediction(comment)
return make_response(jsonify({'Comment': comment, 'Result': result}), 200)
if __name__ == '__main__':
app.run(threaded=False)
Есть ли какие-то детали, которые я могу улучшить для улучшения производительности?