Обработка аудио для iPhone.Какой слой использовать - PullRequest
0 голосов
/ 27 апреля 2011

Я хочу применить звуковой фильтр к голосу пользователя в iPhone. Фильтр довольно тяжелый и требует много аудиосэмплов, чтобы получить желаемое качество. Я не хочу применять фильтр в реальном времени, но хочу иметь производительность почти в реальном времени. Я бы хотел, чтобы обработка происходила параллельно с записью, когда собраны необходимые сэмплы и когда пользователь прекращает запись, чтобы услышать (через несколько секунд) искаженный звук. Мои вопросы: 1. Какой технологический уровень подходит для этой задачи, например, аудиоустройства? 2. Какие шаги предпринимаются? 3. Какие ключевые концепции и методы API использовать? 4. Я хочу захватить голос пользователей. Каковы правильные настройки записи для этого? Если мой фильтр меняет частоту, я должен использовать более широкий диапазон? 5. Как я могу собрать необходимые образцы для моего фильтра? Как я могу обработать аудио данные? Я имею в виду в зависимости от настроек записи, как данные упакованы? 6. Как записать окончательную аудиозапись в файл?

Заранее спасибо!

1 Ответ

0 голосов
/ 27 апреля 2011

Если для вас допустима задержка более ста миллисекунд, вы можете использовать API Audio Queue, который немного проще, чем RemoteIO Audio Unit, для захвата и воспроизведения аудио. Вы можете обработать буферы в своем собственном NSOperationQueue как входящие из аудио-очереди, и либо сохранить обработанные результаты в файл, либо просто сохранить в памяти, если есть место.

Для Вопроса 4: Если ваш аудиофильтр линейный, вам не понадобится более широкий частотный диапазон. Если вы выполняете нелинейную фильтрацию, все ставки выключены.

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...