komentarze
Ven2018.09.13, 11:17
Trzeba pamiętać że w przy pracy na TV włączanie HDR w większości przypadków kończy się pogorszeniem obrazu gdyż maks HDMI to 4k 60Hz 8 bit pixel 4:4:4, po włączeniu 10bit jakośc obrazu realnie spada :)
kadajoZobacz profil
Poziom ostrzeżenia: 0%
kadajo2018.09.03, 11:19
-2#43
Problem z kolorami może dotyczyć kabla HDMI jak i samej gry.
sebgerZobacz profil
Poziom ostrzeżenia: 0%
sebger2018.09.03, 11:15
Najbardziej szkoda, że nikt nie wspomina o jakości wyświetlanych czarnych czcionek na białym tle przy 4k i włączonym HDR. Połączenie za pomocą HDMI. Mówię o normalnym użytkowaniu komputera, a nie oglądaniu filmu czy graniu w grę z HDR.

Przy wszystkich pionowych kreskach, czyli literki typu H, I, L, P itd mamy z lewej strony czerwone przekłamanie. Nie da się tego czytać na dłuższą metę. Dodatkowo co się dzieje z kolorami po przełączeniu na HDR, to już tragedia. Wszystko blednie i szarzeje, czerwony razi po oczach. Pasek jasności w opcjach HDR trzeba zmniejszyć na jakieś 30%, żeby nie oślepnąć. A próba skalibrowania kolorów przy sygnale HDR skończyła się niepowodzeniem. Nie było opcji na odwzorowanie barw.

Karta GTX 1080 TI podłączona do TV philips 55pus6561
chauwaZobacz profil
Poziom ostrzeżenia: 0%
chauwa2018.09.02, 17:47
-1#41
Mistereco21 @ 2018.08.30 16:29  Post: 1162359
Tanie rozwiązania od AMD w postaci PS4 i gry Horizon:Zero Dawn z opcją HDR po prostu zmiotły wszystko co widzieliśmy do tej pory jeśli chodzi i tą technologię. Bardzo dziwi zatem brak tej gry w tym zestawieniu.

Cieszy wydajność i brak problemów Vegi. AMD nie zostawia gruszek w popiele. Ta karta nigdy nie miała przegonić GTX1080, a tymczasem rozkłada ją na łopatki w Battlefieldzie i to w 4K.

Zieloni jak zwykle pokazali, że robią karty na 5 minut, a żeby cieszyć się czymś nowym zmuszeni się d kupienia nowej generacji. Spadki na kartach nvidii z HDR-em są niedopuszczalne w tej klasie wydajnościowej.

lol... szkoda, że niebiescy i zieloni zawsze maja wieksza wydajnosc... oczywiscie za o wiele wieksze pieniążki.
kadajoZobacz profil
Poziom ostrzeżenia: 0%
kadajo2018.09.02, 13:42
Mam wrażenie ze ty cały czas zapominasz ze jest diametralna różnica miedzy światłem które cie otacza z kazdej strony a światłem punktowym, bo takim jest światło monitora/TV. Idąc tym tokiem rozumowania to HDR 10tys. nitow będzie można tylko oglądać w dzień i to najlepiej przy odsłoniętym oknie :E
far85Zobacz profil
Poziom ostrzeżenia: 0%
far852018.09.02, 13:25
-3#39
kadajo @ 2018.09.02 12:46  Post: 1162758
Tylko na zewnątrz masz naturalne światło a nie jakiś diody a to diametralna różnica.
Poza tym HDR nie działa w ten sposób ze nagle cały ekran wali nam po oczach 1000 nitow, gdyby tak było to nikt nie byłby tego w stanie oglądać, szczególnie w zaciemnionym pomieszczeniu.


Chyba monitor bez HDR też nie świeci naturalnym światłem? :) Więc argument dla mnie średnio zrozumiały. Już pomijam kwestię, że w tym przypadku naturalne światło jest bardziej niebezpieczne, bo w naturze mamy do czynienia z tak dużym natężeniem światła, że może nam uszkodzić wzrok. Wyświetlaczom z HDR do tych wartości bardzo daleko.
To oczywista oczywistość, że HDR nie działa w ten sposób, natomiast można prosić o jakieś opracowanie czy wyniki testów potwierdzające, że: ' gdyby tak było to nikt nie byłby tego w stanie oglądać'? Śmiem twierdzić, że to nieprawda.
Zaciemnione pomieszczenie nie ma tu nic do rzeczy jeżeli patrzy się w monitor, a nie na pomieszczenie albo jeśli nie siedzi się w tym pomieszczeniu aż wzrok zaadaptuje się do ciemności a potem włączy ekran :) Wtedy oczywiście ekran nas oślepi, ale do tego nie potrzeba 1000 nitów.

Powtórzę jeszcze raz, 1000 nitów to nie jest jakaś duża wartość. W niedalekiej przyszłości mają być ekrany 10 tys. nitów, a i tak będzie to mniej w porównaniu z normalnym słonecznym dniem.
Natomiast jest moim zdaniem ogromna różnica między np. czytaniem czegoś z internetu - i wtedy polecam ustawienie jasności bieli monitora na poziomie zbliżonym do jasności kartki papieru - a jasnością podczas oglądania filmów czy grania w gry.
Jeśli ktoś się nie zgadza, to polecam wyjść w słoneczny dzień i popatrzeć na dzieci grające w piłkę albo motylki latające po łące. Nie będzie z tym problemu. A teraz proszę na tym słońcu poczytać książkę ;)
kadajoZobacz profil
Poziom ostrzeżenia: 0%
kadajo2018.09.02, 12:46
far85 @ 2018.09.01 13:38  Post: 1162678
mat9v @ 2018.08.30 20:50  Post: 1162446
Nie, po 10 minutach oglądania tego prawdziwego HDR z 1000nit podświetlenia mam ochotę zamknąć się w ciemnym pomieszczeniu i dać oczom odpocząć. Albo przejść się do lasu na spacer. HDR wali po oczach i żadna to przyjemność na dłuższą metę.
Mam i nie używam bo konkretnie oczy bolą.


I na tym spacerze do lasu Pana oczy nie bolą? Natężenie oświetlenia w tym lesie to będzie jakieś kilka tys. lx, spacer do sklepu po bułki w słoneczny dzien i będzie kilkadziesiąt tys. lx! W tym kontekście 1000 nit HDR jest dalekie od odtworzenia natężenia oświetlenia które mamy na co dzień po wyjściu z domu. I które raczej nikogo nie oślepia, bo wzrok się szybko adaptuje :)

Więc może to u Pana kwestia innych czynników niż HDR? ;)


Tylko na zewnątrz masz naturalne światło a nie jakiś diody a to diametralna różnica.
Poza tym HDR nie działa w ten sposób ze nagle cały ekran wali nam po oczach 1000 nitow, gdyby tak było to nikt nie byłby tego w stanie oglądać, szczególnie w zaciemnionym pomieszczeniu.
I zdajesz sobie sprawę że aby wzrok naturalnie się przyzwyczaił to musisz być światłem otoczony a nie ma ci te światło walić z prostokąta zawieszonego na ścianie/stojącego na stoliku ?
Edytowane przez autora (2018.09.02, 12:51)
far85Zobacz profil
Poziom ostrzeżenia: 0%
far852018.09.01, 14:15
DrW @ 2018.08.30 23:42  Post: 1162481
Ktoś miał inną opinię niż ty? Jak śmiał śmieć!

Ja też podchodzę sceptycznie do HDRa, bo po prostu nie lubię jak obraz wali po oczach. Ty mi powiesz, że 400 nitów to za mało, a ja że gdy mam taki ekran, to ustawiam jasność na 30%.

Niech każdy kupuje co chce i korzysta z tego jak chce. Nie widzę powodu aby bóldupić że twoja racja jest słuszniejsza niż cudza.


Nie do końca jest tak, jak piszesz. Ja również używam ekranu 400 nit ustawionego na ok. 30, bo w moim domu, w dość ciemnym pomieszczeniu ustawienie 100% wypalało by mi oczy. Natomiast jak pójdziesz np. do jakiegoś biura, gdzie natężenie oświetlenia musi wynosić ponad 500 luksów to już swojego monitora nie ustawisz na 30%, bo nie będziesz nic widział. Więc nie jest to tylko kwestia indywidualnych preferencji, tylko działania naszego wzroku.

Kolejna kwestia to jest to, co oglądamy. W przypadku statycznych obrazów, np. przeglądania Internetu, czytania z białego tła rzeczywiście lepiej ustawić niewielką jasność zbliżoną do jasności kartki papieru. Natomiast tu mówimy o obrazie dynamicznym, filmach czy grach, w tym przypadku wzrok nie powinien mieć żadnego problemu by zaadaptować się do wyższej jasności tak jak nie ma problemu gdy wychodzimy w lato z domu, a przecież letni dzień jest o wiele jaśniejszy niż te 1000 nit HDR!

Jest wreszcie kwestia tego, że jaśniejszy obraz odbieramy jako ładniejszy, tak samo jak głośniejszy dźwięk :) Tak działa nasz mózg.
Ja bym nie skreślał HDR czy Dolby Vision bo to jeszcze bardzo młode technologie, podobnie jak OLED, ale moim zdaniem już pokazują ogromny potencjał
far85Zobacz profil
Poziom ostrzeżenia: 0%
far852018.09.01, 13:38
mat9v @ 2018.08.30 20:50  Post: 1162446
Nie, po 10 minutach oglądania tego prawdziwego HDR z 1000nit podświetlenia mam ochotę zamknąć się w ciemnym pomieszczeniu i dać oczom odpocząć. Albo przejść się do lasu na spacer. HDR wali po oczach i żadna to przyjemność na dłuższą metę.
Mam i nie używam bo konkretnie oczy bolą.


I na tym spacerze do lasu Pana oczy nie bolą? Natężenie oświetlenia w tym lesie to będzie jakieś kilka tys. lx, spacer do sklepu po bułki w słoneczny dzien i będzie kilkadziesiąt tys. lx! W tym kontekście 1000 nit HDR jest dalekie od odtworzenia natężenia oświetlenia które mamy na co dzień po wyjściu z domu. I które raczej nikogo nie oślepia, bo wzrok się szybko adaptuje :)

Więc może to u Pana kwestia innych czynników niż HDR? ;)
NegratywZobacz profil
Poziom ostrzeżenia: 0%
Negratyw2018.09.01, 11:14
deton24 @ 2018.08.31 20:13  Post: 1162596
No, ale zaś OLEDy pod względem nitów nie grzeszą, a i do bardzo jasnych pomieszczeń też średnio.
Czekamy na MicroLEDy. Do Samsunga w tej technologii dołączył w ramach niedawnego prototypu również LG.
co nei zmienia faktu ze HDR najlepiej wyglada na OLEDAch (tak twierdza najlepsi kalibratorzy swiata)
NegratywZobacz profil
Poziom ostrzeżenia: 0%
Negratyw2018.09.01, 11:12
-1#34
wuzetkowiec @ 2018.08.30 15:48  Post: 1162342
Jeśli chodzi o szeroko pojęte LCD(LED, QLED, Nano Cell itp marketingowe cuda na kiju), to HDR jest najczęściej najzwyklejszą ściemą.
HAHHEHAHEHAHEAEHHEHE czyli dla ciebie Q9FN ktory ma najmocniejkszy HDR na rynku jest sciemą.....a wiec wszyscy recenzenci swiata to sciemniacze i oszusci gdy pisza ze ten tv ma jeden z najlepszych HDRów na rynku
DaviMZobacz profil
Poziom ostrzeżenia: 0%
DaviM2018.08.31, 23:12
@cavalloBL, no co zrobisz? Nic nie zrobisz.
Może po weekendzie pojawi się 3. wersja.
Ale tak po prawdzie to myślę, że autor i ten fragment testu mają potencjał na 5 wersji zanim będzie w końcu poprawnie... wg autora :)

---edit---
'Niestety' autor czyta komentarze i jest już 3. próba i to całkiem poprawna:
Podobny spadek dla karty GTX 1080 można zaobserwować w Call of Duty: World War 2. Różnica wynosi w tym przypadku niemal 4 kl./s na niekorzyść ustawień z włączoną techniką HDR. Dla RX Vegi 64 włączony tryb HDR daję przewagę 0,8 kl./s.


PS. Pozdrawiam autora.
Edytowane przez autora (2018.08.31, 23:24)
cavalloBLZobacz profil
Poziom ostrzeżenia: 0%
cavalloBL2018.08.31, 22:46
DaviM @ 2018.08.30 17:33  Post: 1162382
cavalloBL @ 2018.08.30 17:26  Post: 1162376
Komentarz do wykresu Call of Duty: World War 2 wprowadza w błąd, ponieważ spadki notuje tylko Geforce a komentarz wskazuje na to że obie karty mają tam problem z powodu HDR..

To jest taki test, aby sprawdzić co łykniemy podczas recenzji RTXów ;)


Haha jaka poprawka
Różnica wynosi w tym przypadku dla karty GTX 1080 niemal 4 kl./s na niekorzyść ustawień z włączoną techniką HDR oraz niecałe 2 kl./s dla RX Vega 64.

niecałe 2 kl./s dla Vegi hmm.. 58,2-57,4=0,8 kl./s :E I z HDR wynik jest wyższy a nie niższy na Vedze o te prawie 2 kl./s :E haha czytając to wiem że autor newsa faworyzuje pewien obóz :)
Edytowane przez autora (2018.08.31, 23:14)
deton24Zobacz profil
Poziom ostrzeżenia: 0%
deton242018.08.31, 20:13
No, ale zaś OLEDy pod względem nitów nie grzeszą, a i do bardzo jasnych pomieszczeń też średnio.
Czekamy na MicroLEDy. Do Samsunga w tej technologii dołączył w ramach niedawnego prototypu również LG.
Atak_SnajperaZobacz profil
Poziom ostrzeżenia: 0%
Atak_Snajpera2018.08.31, 13:48
A czy można w ogóle mówić o HDR w przypadku gdy mamy 'jedną żarówę' świecącą za matrycą? Co mi po tym że wybuch w filmie będzie mi wypalać oczy jak w innych ciemnych scenach matryca nie będzie wstanie całkowicie zablokować światła wydobywającego się zza matrycy? HDR tak ale tylko na rozwiązaniu gdzie każdy piksel generuję światło niezależnie (np.OLED). Od biedy może być jeszce jakiś zaawansowany 'local dimming'.
Edytowane przez autora (2018.08.31, 13:48)
pwilZobacz profil
Poziom ostrzeżenia: 0%
pwil2018.08.31, 13:33
eagle @ 2018.08.30 23:07  Post: 1162476
Gram od roku na tv 65 cali na x-e i ps4. HDR z tv nie męczy oczy a jest pięknie. Tydzień temu kupiłem do kompa monitor philipsa z hdr i po godzinie grania np. w mass effect i bg1 gdzie jest hdr bolą oczy. Ekran monitora jest moim zdaniem zbyt blisko przy graniu na pc.


Pewnie problem z PWM podświetlenia. LEDy mają ograniczony zakres jasności i poniżej pewnego napięcia gasną zupełnie. Dlatego reguluje się czasem jasność w większym zakresie zapalając i gasząc z dużą częstotliwością, a to męczy wzrok.

PS dla maniaków HDR polecam spawarkę bez maski ;)
Edytowane przez autora (2018.08.31, 13:34)
pwilZobacz profil
Poziom ostrzeżenia: 0%
pwil2018.08.31, 13:31
mat9v @ 2018.08.30 20:50  Post: 1162446
ombre070 @ 2018.08.30 20:45  Post: 1162443
Prawda jest taka że dobrze zrobiony hdr miażdży.
Nie widzą tego tylko ludzie którzy noszą okulary musztardówki lub mają tv sharpa z biedy z 300 nitów .

Nie, po 10 minutach oglądania tego prawdziwego HDR z 1000nit podświetlenia mam ochotę zamknąć się w ciemnym pomieszczeniu i dać oczom odpocząć. Albo przejść się do lasu na spacer. HDR wali po oczach i żadna to przyjemność na dłuższą metę.
Mam i nie używam bo konkretnie oczy bolą.


Bo do grania z HDR modne będą przyciemniane okulary, model modny w danym sezonie ;-)
DrW2018.08.31, 13:22
Blasterjaxx @ 2018.08.31 10:13  Post: 1162514
Wow faktycznie średnio 2-3 fps więcej co za ficzer, to równie dobrze może być błąd pomiarowy.


Wow, no a teraz wyobraź sobie że to nie ma mieć żadnego wpływu, więc im niższy wynik tym lepiej
BlasterjaxxZobacz profil
Poziom ostrzeżenia: 0%
Blasterjaxx2018.08.31, 10:13
-6#26
Wow faktycznie średnio 2-3 fps więcej co za ficzer, to równie dobrze może być błąd pomiarowy.
gofer87Zobacz profil
Poziom ostrzeżenia: 0%
gofer872018.08.31, 10:02
HDR w monitorach - oglądam jaka to jest różnica pomiędzy monitorem z włączoną technologią a zwykłym monitorem - uwaga - na zwykłym monitorze :P I widzę różnice :) Ściema na maksa
Edytowane przez autora (2018.08.31, 10:03)
Funkcja komentowania została wyłączona. Do dyskusji zapraszamy na forum.