HDR – gry na konsole
Po modyfikacji stanowiska do pomiaru wydajności gier konsolowych mamy możliwość testowania wideo również przy włączonym trybie HDR. W związku z tym przeprowadziliśmy także testy, które miały na celu sprawdzenie, czy i w jakim stopniu HDR obciąża najnowsze wersje konsol Sony i Microsoftu. W tym celu wybraliśmy kilka gier, które zostały przetestowane na PlayStation 4 Pro oraz Xboksie One X.
HDR na PlayStation 4 Pro
Na konsoli PlayStation 4 Pro sprawdziliśmy w działaniu trzy tytuły, które obsługują tryb HDR. W żadnym z analizowanych przypadków nie ma wyraźnej różnicy w płynności grafiki. W Assassin's Creed i Call of Duty, które mają wbudowaną blokadę liczby wyświetlanych klatek, spadki są w granicach 1–2 kl./s. God of War testowany był z kolei w trybie „preferuj wydajność”, czyli w rozdzielczości obniżonej do 1920 × 1080 i bez blokady liczby klatek na sekundę. W tym przypadku wyniki też nie różnią się wyraźnie. Średnia liczba klatek na sekundę przy włączonym trybie HDR wyniosła 49,3, a przy wyłączonym – 49,7.



HDR na Xboksie One X
Konsola Microsoftu osiągnęła niemal identyczne rezultaty w Assassin's Creed Origins oraz Call of Duty: World War II jak PlayStation 4 Pro. W State of Decay 2 wyniki w obu testowanych wariantach są zbliżone. Teoretycznie gra ma blokadę płynności na poziomie 30 kl./s, lecz ta wartość bardzo często jest nieznacznie przekraczana. W miejscu testowym przy włączonym trybie HDR otrzymaliśmy średnio 30,5 kl./s, a po jego wyłączeniu – średnio 31,1 kl./s.



Podsumowanie
Z powyższych testów wynika, że w większości przypadków wpływ techniki HDR na liczbę wyświetlanych klatek jest niewielki. Zauważalna różnica na poziomie 3–4 kl./s wystąpiła jedynie w Call of Duty: World War 2 oraz Battlefieldzie 1 działającym w trybie DX 12. Różnice te są większe w przypadku kart Nvidii, co częściowo potwierdza tezy pojawiające się w internecie. Nie jest to jednak na tyle drastyczny spadek, żeby mógł zdecydowanie pogorszyć odbiór gry, tym bardziej że włączenie trybu HDR wyraźnie poprawia jakość oprawy graficznej. Zwiększony zakres tonalny sprawia, że obraz jest bardziej realistyczny.
Innym zjawiskiem, które ujawniło się podczas testów i może być uciążliwe, są problemy z oprogramowaniem. Część gier przy włączonym trybie HDR potrafi się zawiesić bądź zachować w nieprzewidywalny sposób. Dotyczy to również produkcji konsolowych. Część gier PC pozwala włączyć opcję HDR bezpośrednio we własnym menu, inne wymagają włączenia odpowiedniej opcji w menu systemowym, przez co wspomniane bolączki przekładają się na problemy z powłoką systemową Windows.
To wszystko jednak będzie można naprawić w przyszłych aktualizacjach oprogramowania, a korzyść z włączenia trybu HDR jest oczywista tym bardziej, że jeśli jest poprawnie zaimplementowany, ma marginalny bądź zerowy wpływ na wydajność.

Przy wszystkich pionowych kreskach, czyli literki typu H, I, L, P itd mamy z lewej strony czerwone przekłamanie. Nie da się tego czytać na dłuższą metę. Dodatkowo co się dzieje z kolorami po przełączeniu na HDR, to już tragedia. Wszystko blednie i szarzeje, czerwony razi po oczach. Pasek jasności w opcjach HDR trzeba zmniejszyć na jakieś 30%, żeby nie oślepnąć. A próba skalibrowania kolorów przy sygnale HDR skończyła się niepowodzeniem. Nie było opcji na odwzorowanie barw.
Karta GTX 1080 TI podłączona do TV philips 55pus6561
Cieszy wydajność i brak problemów Vegi. AMD nie zostawia gruszek w popiele. Ta karta nigdy nie miała przegonić GTX1080, a tymczasem rozkłada ją na łopatki w Battlefieldzie i to w 4K.
Zieloni jak zwykle pokazali, że robią karty na 5 minut, a żeby cieszyć się czymś nowym zmuszeni się d kupienia nowej generacji. Spadki na kartach nvidii z HDR-em są niedopuszczalne w tej klasie wydajnościowej.
lol... szkoda, że niebiescy i zieloni zawsze maja wieksza wydajnosc... oczywiscie za o wiele wieksze pieniążki.
Poza tym HDR nie działa w ten sposób ze nagle cały ekran wali nam po oczach 1000 nitow, gdyby tak było to nikt nie byłby tego w stanie oglądać, szczególnie w zaciemnionym pomieszczeniu.
Chyba monitor bez HDR też nie świeci naturalnym światłem?
To oczywista oczywistość, że HDR nie działa w ten sposób, natomiast można prosić o jakieś opracowanie czy wyniki testów potwierdzające, że: ' gdyby tak było to nikt nie byłby tego w stanie oglądać'? Śmiem twierdzić, że to nieprawda.
Zaciemnione pomieszczenie nie ma tu nic do rzeczy jeżeli patrzy się w monitor, a nie na pomieszczenie albo jeśli nie siedzi się w tym pomieszczeniu aż wzrok zaadaptuje się do ciemności a potem włączy ekran
Powtórzę jeszcze raz, 1000 nitów to nie jest jakaś duża wartość. W niedalekiej przyszłości mają być ekrany 10 tys. nitów, a i tak będzie to mniej w porównaniu z normalnym słonecznym dniem.
Natomiast jest moim zdaniem ogromna różnica między np. czytaniem czegoś z internetu - i wtedy polecam ustawienie jasności bieli monitora na poziomie zbliżonym do jasności kartki papieru - a jasnością podczas oglądania filmów czy grania w gry.
Jeśli ktoś się nie zgadza, to polecam wyjść w słoneczny dzień i popatrzeć na dzieci grające w piłkę albo motylki latające po łące. Nie będzie z tym problemu. A teraz proszę na tym słońcu poczytać książkę
Mam i nie używam bo konkretnie oczy bolą.
I na tym spacerze do lasu Pana oczy nie bolą? Natężenie oświetlenia w tym lesie to będzie jakieś kilka tys. lx, spacer do sklepu po bułki w słoneczny dzien i będzie kilkadziesiąt tys. lx! W tym kontekście 1000 nit HDR jest dalekie od odtworzenia natężenia oświetlenia które mamy na co dzień po wyjściu z domu. I które raczej nikogo nie oślepia, bo wzrok się szybko adaptuje
Więc może to u Pana kwestia innych czynników niż HDR?
Tylko na zewnątrz masz naturalne światło a nie jakiś diody a to diametralna różnica.
Poza tym HDR nie działa w ten sposób ze nagle cały ekran wali nam po oczach 1000 nitow, gdyby tak było to nikt nie byłby tego w stanie oglądać, szczególnie w zaciemnionym pomieszczeniu.
I zdajesz sobie sprawę że aby wzrok naturalnie się przyzwyczaił to musisz być światłem otoczony a nie ma ci te światło walić z prostokąta zawieszonego na ścianie/stojącego na stoliku ?
Ja też podchodzę sceptycznie do HDRa, bo po prostu nie lubię jak obraz wali po oczach. Ty mi powiesz, że 400 nitów to za mało, a ja że gdy mam taki ekran, to ustawiam jasność na 30%.
Niech każdy kupuje co chce i korzysta z tego jak chce. Nie widzę powodu aby bóldupić że twoja racja jest słuszniejsza niż cudza.
Nie do końca jest tak, jak piszesz. Ja również używam ekranu 400 nit ustawionego na ok. 30, bo w moim domu, w dość ciemnym pomieszczeniu ustawienie 100% wypalało by mi oczy. Natomiast jak pójdziesz np. do jakiegoś biura, gdzie natężenie oświetlenia musi wynosić ponad 500 luksów to już swojego monitora nie ustawisz na 30%, bo nie będziesz nic widział. Więc nie jest to tylko kwestia indywidualnych preferencji, tylko działania naszego wzroku.
Kolejna kwestia to jest to, co oglądamy. W przypadku statycznych obrazów, np. przeglądania Internetu, czytania z białego tła rzeczywiście lepiej ustawić niewielką jasność zbliżoną do jasności kartki papieru. Natomiast tu mówimy o obrazie dynamicznym, filmach czy grach, w tym przypadku wzrok nie powinien mieć żadnego problemu by zaadaptować się do wyższej jasności tak jak nie ma problemu gdy wychodzimy w lato z domu, a przecież letni dzień jest o wiele jaśniejszy niż te 1000 nit HDR!
Jest wreszcie kwestia tego, że jaśniejszy obraz odbieramy jako ładniejszy, tak samo jak głośniejszy dźwięk
Ja bym nie skreślał HDR czy Dolby Vision bo to jeszcze bardzo młode technologie, podobnie jak OLED, ale moim zdaniem już pokazują ogromny potencjał
Mam i nie używam bo konkretnie oczy bolą.
I na tym spacerze do lasu Pana oczy nie bolą? Natężenie oświetlenia w tym lesie to będzie jakieś kilka tys. lx, spacer do sklepu po bułki w słoneczny dzien i będzie kilkadziesiąt tys. lx! W tym kontekście 1000 nit HDR jest dalekie od odtworzenia natężenia oświetlenia które mamy na co dzień po wyjściu z domu. I które raczej nikogo nie oślepia, bo wzrok się szybko adaptuje
Więc może to u Pana kwestia innych czynników niż HDR?
Czekamy na MicroLEDy. Do Samsunga w tej technologii dołączył w ramach niedawnego prototypu również LG.