Я планирую визуализировать контент в представлении на iOS с использованием изменяемой композиции AV. Я хочу объединить видео, полученное с одной из камер iPhone, с контентом, созданным в слое - изменяемая композиция, кажется, здесь отвечает всем требованиям, так как может объединять слои в видеоконтент.
Нет необходимости в том, чтобы композитинг создавался во время записи видео - я также рад смешать необходимые данные в композицию, которая затем отображается (через AVExportSession) в файл после завершения начальной записи видео.
Что я не понимаю, так это то, как слой [ca] должен знать, что рисовать в данный момент во время композиции, в контексте структуры AV.
Содержание моего слоя зависит от временной шкалы, временная шкала описывает, что должно быть нарисовано внутри слоя. Поэтому, если я внедряю слой в изменяемую композицию, а затем экспортирую эту композицию через AVExportSession - как экземпляр CALayer узнает, в какое время он должен производить контент?