Я пытаюсь использовать Direct Line Speech (DLS) в моем собственном голосовом приложении. Приложение Voice имеет доступ к аудиопотокам в режиме реального времени, которые я хочу (в кодировке pcm), напрямую в Direct Line Speech, что позволяет осуществлять обмен данными в режиме реального времени.
Из примера кода клиента DLS(https://github.com/Azure-Samples/Cognitive-Services-Direct-Line-Speech-Client), Я вижу, что метод ListenOneAsync () в пространстве имен Microsoft.CognitiveServices.Speech.Dialog.DialogServiceConnector, но выглядит так, как будто он захватывает медиа с локального микрофона.
Но, глядя на ответ здесь ( Подходит ли новая прямая речь MS Botbuilder для сценария центра обработки вызовов? ), кажется, я могу отправить аудиопоток напрямую в DLS. Кажется, я не могу найти какую-либо документацию по этому поводу. Может кто-то пролить некоторыесвет о том, как этого добиться?