Если вы просто хотите проверить разницу между временем отображения кадра на экране и временем фактического живого события (т. Е. В реальном мире), обычный способ сделать это - снять живые часы или 'clapperboard'.
Если вы тестируете сквозную доставку, возможно, с использованием облачной обработки, упаковки и c, то самый простой способ - это расположить часы и потоковое видео рядом друг с другом.
- Снимайте видео с хлопушкой с вашей камерой
- Подайте видеопоток в любой рабочий процесс вашего видео (кодировщики, упаковщики, CDN и т. Д. c)
- Воспроизведите в прямом эфире на проигрывателе
- Поместите с 'хлопушкой' и проигрывателем рядом друг с другом
- Просмотрите, сфотографируйте или запишите на видео два экрана - разница между временем равна латентности
Амазонка имеет хороший обзор здесь, включая эту картинку, которая помогает объяснить это:
(https://aws.amazon.com/blogs/media/how-to-compete-with-broadcast-latency-using-current-adaptive-bitrate-technologies-part-1/)
Если хочешь быть Если вы сделаете это только на клиенте, вам понадобится добавить несколько точных временных меток в метаданные для каждого кадра. Я не знаю, какое стандартное оборудование делает это, но некоторые из них могут быть доступны - в H.264 есть механизмы, такие как SEI (https://mpeg.chiariglione.org/tags/sei-messages), чтобы передавать информацию для «дополнения» видео, но опять же, они обычно не используются таким образом AFAIK.