aktualności

4K i HDR? GeForce dostaje zadyszki

56
23 lipca 2018, 01:47 Piotr Gontarczyk

Spadków wydajności w ogóle miało nie być. HDR w grach to po 3D (ktoś jeszcze pamięta?) kolejne rozwiązanie, które ma przyciągać graczy, przede wszystkim do producentów sprzętu, a więc kart graficznych i monitorów. Do tej pory mogło wydawać się, że korzystanie z HDR nie powinno mieć zauważalnego wpływu na wydajność w grach. Okazuje się, że jeśli HDR połączyć z rozdzielczością 4K, to przynajmniej jeden z graczy na rynku GPU ma poważne problemy.

Niemiecka ekipa ComputerBase przeprowadziła szereg nowych testów w grach korzystających z HDR, uruchamiając je w rozdzielczości 3840 x 2160 pikseli. Wyniki są mocno zaskakujące, bo o ile Radeon RX Vega 64 średnio traci 2% liczby klatek na sekundę, to już GeForce GTX 1080 notuje spadek o aż około 10%. Warto przypomnieć, że Nvidia sama w trakcie jednej z ostatnich prezentacji zapewniała, że korzystanie z HDR w grach nie będzie miało negatywnego wpływu na wydajność. Warto zauważyć, że dotychczasowe testy HDR przeprowadzano w niższych rozdzielczościach i ich wyniki pokazywały, że faktycznie spadki wydajności są bardzo niewielkie lub wręcz żadne. W 4K jednak GPU Nvidii traci po włączeniu HDR naprawdę sporo.

W pierwszym momencie można by pomyśleć, że wystarczy poprawić sterowniki. W przypadku GPU Nvidii powodem spadków wydajności może być sposób, w jaki w trybie HDR stosują one podpróbkowanie Chromy 4:2:2 - innymi słowy kompresują kolor. Gdyby GPU Nvidii utrzymywały Chromę 4:4:4, to spadków liczby klatek na sekundę nie powinno być, w żadnej rozdzielczości. Tu warto przypomnieć, że o podpróbkowaniu Chromy pisaliśmy całkiem niedawno, przy okazji monitorów Asusa i Acera z matrycami 4K, odświeżaniem 144 Hz, HDR, no i techniki G-Sync.

KowalPachołekFocusaZobacz profil
Poziom ostrzeżenia: 0%
KowalPachołekFocusa2018.07.23, 06:06
39#1
** And why does NVidia suck at everything new? (Dx12/Vulkan/HDR)**
To chyba najlepszy komentarz:)
mocu1987Zobacz profil
Poziom ostrzeżenia: 0%
mocu19872018.07.23, 06:33
-20#2
Tak mnie zastanawia, dlaczego nie ma w porownaniu ponad rocznej 1080ti zamiast 2letniej 1080.
Markiz88Zobacz profil
Poziom ostrzeżenia: 0%
Markiz882018.07.23, 06:35
27#3
mocu1987 @ 2018.07.23 06:33  Post: 1155080
Tak mnie zastanawia, dlaczego nie ma w porownaniu ponad rocznej 1080ti zamiast 2letniej 1080.

Większą popularnością cieszy się 1080 niż TI. Ponadto w takiej sytuacji należało by zrobić przekrojowy test dla wszystkich kart w 2/3 produkcjach.
mocu1987Zobacz profil
Poziom ostrzeżenia: 0%
mocu19872018.07.23, 06:42
-22#4
Markiz88 @ 2018.07.23 06:35  Post: 1155081
mocu1987 @ 2018.07.23 06:33  Post: 1155080
Tak mnie zastanawia, dlaczego nie ma w porownaniu ponad rocznej 1080ti zamiast 2letniej 1080.

Większą popularnością cieszy się 1080 niż TI. Ponadto w takiej sytuacji należało by zrobić przekrojowy test dla wszystkich kart w 2/3 produkcjach.


W tytule jest napisane 'geforce dostaje zadyszki' a nie konkretny model. Wiec skoro ktos bierze najwyzszy model AMD do testu, powinien tez od NV. Rozumiem pomijac Titany i Titana V, ale konsumenckie 1080ti to dzisiaj zadne WoW do testow.
SzczotaZobacz profil
Poziom ostrzeżenia: 0%
Szczota2018.07.23, 06:59
30#5
Odkad pamietam to zawsze na kartach AMD rozne nowe feature lepiej dzialalo. Dopiero kolejna generacja nvidii juz przystosowana to zmieniala
kochamdzastinkaZobacz profil
Poziom ostrzeżenia: 0%
kochamdzastinka2018.07.23, 07:00
-27#6
stawiam na procka ;) geforce napewno sie odmuli przy +20% szybszym procku :P

LeesiuuZobacz profil
Poziom ostrzeżenia: 0%
Leesiuu2018.07.23, 07:17
22#7
kochamdzastinka @ 2018.07.23 07:00  Post: 1155084
stawiam na procka ;) geforce napewno sie odmuli przy +20% szybszym procku :P


Nie wiem co mogliby mocniejszego wstawić niż Core i7-8700K... Oczywiście z mainstreamowych procesorów, bo nie mówię tutaj o wersjach extreme.
kochamdzastinkaZobacz profil
Poziom ostrzeżenia: 0%
kochamdzastinka2018.07.23, 08:00
-30#8
i5-5675Rco ma 30% wyzsza wydajnosc per jajko i mozna jeszcze krecic bo to 65wat :E

nie idzie go kupic niestety a jak sie pojawia to cenka z kosmosu
SebastianFMZobacz profil
Poziom ostrzeżenia: 0%
SebastianFM2018.07.23, 08:07
21#9
kochamdzastinka @ 2018.07.23 07:00  Post: 1155084
stawiam na procka ;) geforce napewno sie odmuli przy +20% szybszym procku :P


A co może mieć do tego procesor, skoro chodzi o różnicę w wydajności przy wyłączonym i włączonym HDR?
kiokioZobacz profil
Poziom ostrzeżenia: 0%
kiokio2018.07.23, 08:11
-31#10
Po pierwze 1080 nie sluzy do gry w 4K z HDR, po drugie gdyby zrobili test z 1080ti to by wyszlo to samo co przy AMD - 2%, jesli wogole.
Mam gtx1080TI i nie dostrzegam zadnych spadkow fps w 4K i HDR

Po trzecie zalezy jaką karte testowali bo to bardzo wazne. Specyfikacja GTX1080 nie jest dokladnie taka sama dla wszystkich producentow np karty ASUSa nie wspeierają HDMI 2.0b ktore jest wymagane do wyswietlania obrazu w 4K z HDR i chromą 4:4:4.
Na karcie z HDMI 2.0 lub 2.0a (takie jak mają karty z seri STRIX) mogą wystepowac problemy z plynnoscią, poniewaz ten standard nie zapewnia wystarczającej przepustowosci danych dla tego formatu obrazu. Spadki plynnosci nie wynikają z braku mocy obliczeniowej karty ale z opiźnieniami wyswietlania obrazu po torze niezdolnym odebrac tyle danych. Przy HDMI 2.0 jest tez problem z kanalem zwrotnym z wyswietlacza, ale to dotyczy tylko opcji Gsync oraz wlaczonej synchronizacji
Zaloguj się, by móc komentować
1