Потоковое аудио в WebRTC во время вызовов webRTC - PullRequest
0 голосов
/ 25 сентября 2018

Мое приложение использует платформу Google WebRTC для выполнения аудиозвонков, и эта часть работает.Однако я хотел бы найти способ для потоковой передачи аудиофайла во время разговора.

Сценарий: BB отвечает на вызовы и воспроизводит музыку A слышит эту музыку

Я загрузил весь исходный кодWebRTC и пытается понять, как это работает.По части iOS кажется, что она использует Audio Unit.Я вижу файл voice_processing_audio_unit.Я бы (возможно, ошибочно) предположил, что мне нужно создать пользовательский audio_unit, который читает данные из файла?

У кого-нибудь есть идеи, в каком направлении двигаться?

1 Ответ

0 голосов
/ 05 октября 2018

После целой недели борьбы с этим вопросом.Наконец-то мне удалось найти решение этой проблемы.

Отредактировав код WebRTC, я смог добраться до уровня AudioUnits и в AudioRenderingCallback перехватить буфер io_data.

Этот обратный вызов вызывается каждые 10 мсек для получения данных с микрофона.Поэтому в этом точном обратном вызове я смог изменить этот буфер io_data, чтобы поместить мои собственные аудиоданные.

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...