Чтение метаданных в прямом эфире в Apple HTTP Live Streaming - PullRequest
2 голосов
/ 18 ноября 2011

В мире Flash существует концепция объектов, представляющих живое потоковое соединение и поток (NetConnection и NetStream).Хотя Flash API и эти объекты, можно использовать для ввода текстовых метаданных в живой поток (NetStream.send ()).Затем эти данные можно прослушивать на стороне просмотра в приложении просмотра Flash с прослушивателями в коде ActionScript.Вы можете пропустить вызовы функций через видеопоток, прослушать их и выполнить их на стороне клиента.

Существует ли эта концепция в сфере Apple HTTP Live Streaming?

1 Ответ

2 голосов
/ 18 ноября 2011

Да, метаданные генерируются в файл id3taggenerator и внедряются в видео с использованием mediafilesegmenter, оба включены в HTTP Live Streaming Tools .Пример:

id3taggenerator -o camera1.id3 -text "Dolly camera"
id3taggenerator -o camera2.id3 -text "Tracking camera"

Существует несколько видов метаданных, которые вы можете встраивать, включая двоичные объекты.Обратитесь к странице справочника для деталей.Теперь нам нужно сослаться на сгенерированный файл из «мета-макрофайла».Это простой текстовый файл в следующем формате:

60 id3 camera1.id3
120 id3 camera2.id3

Первое число - это количество секунд, прошедших с начала видео, в которое вы хотите вставить уведомление.Я точно не помню команду mediafilesegmenter, нужно передать как минимум файл макроса, индекс и видеофайл.

Полученное видео содержит метаданные, которые публикуются MPMoviePlayerController в качестве уведомлений.Подробности смотрите на этой странице: http://jmacmullin.wordpress.com/2010/11/03/adding-meta-data-to-video-in-ios/

...