У меня есть аудио приложение, в котором вся работа по генерации звука выполняется с использованием чистых данных (с использованием libpd).
Я закодировал специальный секвенсор в swift, который управляет запуском / остановкой воспроизведения нескольких последовательностей, воспроизводимых синтезаторными механизмами в чистых данных.
До сих пор я полностью избегал использования Core Audio или AVFoundation для любого аспекта моего приложения, потому что я ничего о них не знаю, и им обоим, похоже, требуется кодирование на C или Objective C, о котором я почти ничего не знаю.
Однако, как я уже говорил из предыдущих вопросов и ответов здесь, мне нужно использовать Core Audio или AVFoundation, чтобы получить точную синхронизацию. Без этого я попробовал все остальное, и время полностью испорчено (медлительное, нервное).
Все учебники и книги по Core Audio кажутся мне чрезвычайно широкими и глубокими. Если все, что мне нужно от одной из этих платформ, - это точная синхронизация для моего секвенсора, как вы предлагаете мне добиться этого как человека, который является новичком в Core Audio и Objective-C, но в остальном имеет готовое аудио приложение на 95%?