Choregraphe
API ALTextToSpeech
и ALSpeechRecognition
не работают к виртуальному роботу, к сожалению, не очень. Из документов здесь
Двигатели ACAPELA, microAITalk и Nuance доступны только для реального робота. При использовании виртуального робота указанный текст можно визуализировать на панели представления и диалога Choregraphe Robot.
и здесь
[Распознавание речи] не может быть протестированным на симуляторе робота - этот модуль доступен только на реальном роботе, вы не можете протестировать его на симуляторе робота.
Текстовое взаимодействие может использоваться для проверки последовательности ваших диалогов, но Я не позволю вам должным образом проверить нюансы распознавания речи.
Другие симуляторы
Веб-роботы больше не поддерживаются, и мне никогда не удавалось настроить его. Лучшая на данный момент среда моделирования для Pepper / NAO - это стек ROS Gazebo . Но он действительно не предназначен для аудио моделирования. Это позволит вам симулировать робота, делающего жесты и движущегося по миру, но вам придется написать собственный код (узлы ROS, в python или C ++) для обработки аудио, распознавания речи и вывода речи ( например, подключенный к mi c и динамикам, которые у вас есть).
Если вы планируете использовать чат-бот NAOqi QiChat, вы можете использовать apis naoqi python для его запуска и просто подключить внешнюю речь к текстовые и речевые услуги к нему. Хотя вам нужны более сложные речевые взаимодействия, я бы предложил полноценный чат-бота (Dialogflow, IBM Watson, et c.)