Как использовать AVMutableComposition и CALayers на iOS - PullRequest
3 голосов
/ 01 июня 2011

Я планирую визуализировать контент в представлении на iOS с использованием изменяемой композиции AV. Я хочу объединить видео, полученное с одной из камер iPhone, с контентом, созданным в слое - изменяемая композиция, кажется, здесь отвечает всем требованиям, так как может объединять слои в видеоконтент.

Нет необходимости в том, чтобы композитинг создавался во время записи видео - я также рад смешать необходимые данные в композицию, которая затем отображается (через AVExportSession) в файл после завершения начальной записи видео.

Что я не понимаю, так это то, как слой [ca] должен знать, что рисовать в данный момент во время композиции, в контексте структуры AV.

Содержание моего слоя зависит от временной шкалы, временная шкала описывает, что должно быть нарисовано внутри слоя. Поэтому, если я внедряю слой в изменяемую композицию, а затем экспортирую эту композицию через AVExportSession - как экземпляр CALayer узнает, в какое время он должен производить контент?

1 Ответ

1 голос
/ 06 июля 2011

У меня происходило подобное.Я бы порекомендовал вам проверить исходный код приложения WWDC 2010 AVEditDemo.Там есть пример кода, который делает именно то, что вам нужно - поместить CALayer поверх видео дорожки, а также сделать анимацию поверх него.

Вы также можете проверить мои усилия по этому вопросу по адресу: Смешайте видео со статическим изображением в CALayer, используя AVVideoCompositionCoreAnimationTool

...