Размещение модели RASA NLU на облачном сервере - PullRequest
0 голосов
/ 05 февраля 2020

Я работаю над голосовым помощником с помощью RASA NLU, который позже будет развернут в мобильном приложении для Android / IOS. В настоящее время у меня есть программа python, в которой я вызываю модель RASA NLU и анализирую входящие данные, используя класс Interpreter.

interpreter = Interpreter.load("training_data/models/nlu/default/current/")
interpreter.parse(input)

Ответ, который я получаю, сохраняется в объекте JSON, где я анализирую его, чтобы получить намерение + связанные сущности. Позже я беру этот вывод и использую интерпретатор AIML, чтобы получить соответствующий ответ для него. Я храню все ответы в файлах AIML.

Моя проблема заключается в том, что весь этот код выполняется локально на моей машине. Я хочу загрузить модель RASA NLU на сервер, а затем использовать какие-то API-интерфейсы для запроса ответа от модели и отправки его в ядро ​​AIML (также хранящееся на сервере). Модель всегда должна быть запущена на сервере, и я буду отправлять запросы из мобильного приложения. Есть предложения?

1 Ответ

0 голосов
/ 07 февраля 2020

Я рекомендую сначала выполнить развертывание Rasa X на своем сервере, как описано в документации на rasa.com.

После того, как вы все заработаете, создайте пользовательский соединитель, который подключается к HTTP-API Rasa Open Source.

...