Большинство ресурсов в inte rnet утверждают, что после выполнения вычислений в High Dynami c Range, где значения могут быть произвольно большими (в пределах представления типа), результат должен быть преобразован из HDR в Standard Dynami c Диапазон, где значения находятся в диапазоне [0, 1], потому что это диапазон, представляемый устройством отображения.
Обычно используется тональный преобразователь, такой как ACES-стиль фильма c, особенно популярный при рендеринге PBR. Это так, потому что значения будут в любом случае ограничены диапазоном [0, 1], а все, что выше 1, будет игнорироваться, что не приведет ни к реалистичным c, ни к приятным результатам ... или они будут?
I недавно наткнулся на следующую статью NVIDIA: https://developer.nvidia.com/rendering-game-hdr-display. Похоже, что с помощью API-интерфейсов NVIDIA и Windows Speci c можно выводить значения HDR, чтобы использовать возможности определенных мониторов для отображения очень большой гаммы цветов и яркости.
Я интересно, почему об этом не говорят? Насколько я знаю, даже большие игровые движки, такие как Unity и Unreal , не используют эту технику и вместо этого используют тональный преобразователь для вывода изображения SDR.
Почему это тот случай? Выход HDR все еще находится в фазе технических демонстраций? Разве нет дисплеев потребительского уровня, способных отображать его (несмотря на то, что многие начинают рекламироваться как «мониторы HDR»)? Или я все понял неправильно, и ничего такого, как выход HDR, и все это просто апрельская шутка?
Редактировать: Я также был бы признателен за некоторую информацию о кроссплатформенном подходе к использованию вывода HDR, если это возможно особенно в OpenGL.