Я знаю, что это очень широкая тема, но я слоняюсь с демонстрациями и моими собственными тестами и не уверен, правильно ли я атакую проблему. Так что любые выводы о том, где я должен начать, будут оценены.
Цель состоит в том, чтобы приложение генерировало синтезированные звуки в соответствии с настройками пользователя. (Это не единственная функция приложения, я не воссоздаю здесь Korg, но синтезатор является частью этого.) Пользователь устанавливает типичные настройки синтезатора, такие как wave, reverb и т. Д., Затем выбирает, когда будет играть нота, вероятно, с модификатором высоты тона и скорости.
Я немного поигрался с аудиоустройством и RemoteIO, но едва понимал, что я делаю. Прежде чем я зайду СЛИШКОМ далеко вниз по этой кроличьей норе, я хотел бы знать, нахожусь ли я даже на правильном поле. Я знаю, что аудиосинтез будет на низком уровне, но я надеюсь, что, возможно, есть какие-то библиотеки более высокого уровня, которые я могу использовать.
Если у вас есть какие-либо указания относительно того, с чего начать, и о какой технологии iOS, о которой мне следует прочитать подробнее, сообщите мне.
Спасибо!
РЕДАКТИРОВАТЬ: позвольте мне лучше обобщить вопросы.
Есть ли уже какие-нибудь синтезированные библиотеки для iOS? (коммерческий или с открытым исходным кодом - я не нашел ни одного с многочисленными поисками, но, возможно, мне его не хватает.)
Существуют ли какие-либо API более высокого уровня, которые могут помочь сгенерировать буферы проще?
Предполагая, что я уже могу генерировать буферы, есть ли лучший / более простой способ передать эти буферы на аудиоустройство iOS, чем аудиоустройство RemoteIO?