Что быстрее: декодировать H264 1920x1080 и отображать его на экране 1920x1080 или декодировать H264 1280x720 и отображать 1920x1080? - PullRequest
0 голосов
/ 28 ноября 2010

Итак, мы создаем некоторый видеосервер. Мы транслируем FLV нашим флеш-клиентам. наши провайдеры могут предоставить нам видео h254 размером 1920x1080 и 1280x720. Но это видео будет генерироваться из того же источника 1280x720 с тем же битрейтом. так у нас будет

1280x720 h264 with bitRateA
and
1920x1080 with bitRateA

мы предполагаем, что можем доставлять видео с одинаковой скоростью.

Что будет быстрее для клиентов: декодировать H264 1920x1080 и отображать его на экране 1920x1080 или декодировать H264 1280x720 и отображать 1920x1080?

1 Ответ

2 голосов
/ 29 ноября 2010

Я подозреваю, что более высокое разрешение с более высоким разрешением будет быстрее, чем декодирование с более высоким разрешением.Upscaling - простая и быстрая операция, в то время как декодирование h264 очень сложное (да, это фактическое техническое выражение: -)).

Кроме того, если у вас одинаковый битрейт в обоих потоках,Не увеличивайте качество изображения, увеличивая разрешение, вдвойне, если вы используете тот же поток с более низким разрешением, что и источник (поскольку нет никакой дополнительной информации, которую может использовать поток с более высоким разрешением).Скорее всего, повторное кодирование, вероятно, приведет к ухудшению качества изображения, чем исходный поток с более низким разрешением, путем введения дополнительных ошибок дизеринга и квантования.

...