Возможна ли обработка звука в реальном времени в iOS? - PullRequest
0 голосов
/ 10 октября 2018

Итак, я планирую создать приложение, которое, по крайней мере, позволит мне использовать микрофон на iphone для преобразования в сбалансированный аудиосигнал через разъем для наушников.Проблема в том, что я не уверен, возможно ли получить микрофонный вход на выход без задержки.Я посмотрел на CoreAudio и AVFoundation, но похоже, что один скоро устареет, а другой может быть слишком высокого уровня, чтобы делать то, что мне нужно.Я тестирую AudioKit, но я запускаю его только в симуляторе, который работает на виртуальной машине в Windows, поэтому я могу получить гораздо лучшие результаты на реальном устройстве (хотя я скептически отношусь к этому, потому что задержка звукатак же, как когда я наблюдаю за своим микрофоном через windows).

Кто-нибудь знает какие-либо рамки или буквально что-нибудь, что могло бы сделать возможным обработку звука в реальном времени без слишком заметной задержки?Это вообще возможно на iOS или слишком большая нагрузка на ОС?

Буквально любой ответ приветствуется.

1 Ответ

0 голосов
/ 10 октября 2018

Я делаю обработку звука в реальном времени с помощью AudioKit.Было несколько сбоев, но мне удалось добавить узлы обработки к микрофонным записям в реальном времени и вывести их на динамик практически без задержки.

Отличительной особенностью, с которой я столкнулся, была разницамежду сборкой 'debug' и сборкой 'release' в xcode.Сборка релиза занимает больше времени для компиляции, но работает быстрее, что уменьшает задержку обработки аудиобуфера.Моя тестовая платформа - старый ipad2, поэтому вы можете не столкнуться с этими проблемами, если используете более современное оборудование.

...