Я хочу использовать CoreNLP на производстве, поэтому он должен быть достаточно масштабируемым. (5000 запросов с 9:00 до 17:00)
Я использую оболочку Python pycorenlp и использую фреймворк Flask в качестве конечной точки API.
Эта конечная точка API Flask размещена на Elastic Beanstalk (AWS).
Причина: http://flask.pocoo.org/docs/dev/deploying/
Я знаю, что возможно запускать многопоточный сервер Stanford CoreNLP.
Но достаточно ли этого? Должен ли я использовать несколько серверов coreNLP?
Каков наилучший способ сделать эту комбинацию достаточно масштабируемой?
Я предполагаю, что сервер coreNLP должен работать на том же сервере, где расположена конечная точка Flask.