RASA состоит из RASA NLU + Core, я тестировал вокруг, я понимаю некоторую часть об этом.
Я пытаюсь применить его на практике, и он работает идеально.
Я планирую вывести его на следующий уровень, я хочу создать систему часто задаваемых вопросов на основе стека RASA с помощью бэкэнда tenensflow.
Я получил более 1200+ пар вопросов и ответов. Во-первых, NLU будет играть роль, чтобы понять и классифицировать намерение наряду с извлечением объекта.
Во-вторых, он передает ответ json ядру RASA, где ответы будут отображаться или отвечать пользователям. Звучит просто, но когда я иду и проверяю RASA, это дает что-то другое. Обычно ядро RASA будет отвечать пользователю обратно на основе предопределенной истории вместе с ==> "utter_". Предопределенная история хороша, но только для небольшого количества наборов данных. мы должны написать это вручную.
Как действовать, когда набор данных или основанный на знаниях становится больше, например 1000+ или 5000+, мы не можем вручную отобразить его. Я пытаюсь осмотреться, но пока не могу найти подходящий способ с этим справиться.
Ранее я использовал [Retrieval Model] Sklean Tfidf-vectorizer в качестве набора слов вместе с consine-similairy для сравнения и возврата наиболее похожего индекса вопроса, когда индекс найден. Ответ будет выбираться на основе индекса, но это решение не эффективен, так как смысл будет потерян и намного больше проблем.
Кто-нибудь получил такое хорошее решение для этого ??
Спасибо