Я работаю над голосовым помощником с помощью RASA NLU, который позже будет развернут в мобильном приложении для Android / IOS. В настоящее время у меня есть программа python, в которой я вызываю модель RASA NLU и анализирую входящие данные, используя класс Interpreter.
interpreter = Interpreter.load("training_data/models/nlu/default/current/")
interpreter.parse(input)
Ответ, который я получаю, сохраняется в объекте JSON, где я анализирую его, чтобы получить намерение + связанные сущности. Позже я беру этот вывод и использую интерпретатор AIML, чтобы получить соответствующий ответ для него. Я храню все ответы в файлах AIML.
Моя проблема заключается в том, что весь этот код выполняется локально на моей машине. Я хочу загрузить модель RASA NLU на сервер, а затем использовать какие-то API-интерфейсы для запроса ответа от модели и отправки его в ядро AIML (также хранящееся на сервере). Модель всегда должна быть запущена на сервере, и я буду отправлять запросы из мобильного приложения. Есть предложения?