Мое приложение использует платформу Google WebRTC для выполнения аудиозвонков, и эта часть работает.Однако я хотел бы найти способ для потоковой передачи аудиофайла во время разговора.
Сценарий: BB отвечает на вызовы и воспроизводит музыку A слышит эту музыку
Я загрузил весь исходный кодWebRTC и пытается понять, как это работает.По части iOS кажется, что она использует Audio Unit.Я вижу файл voice_processing_audio_unit.Я бы (возможно, ошибочно) предположил, что мне нужно создать пользовательский audio_unit, который читает данные из файла?
У кого-нибудь есть идеи, в каком направлении двигаться?