Zacznijmy od wyjaśnienia, dlaczego dziennikarska społeczność przeprowadziła do tej pory tak mało testów wydajności w grach z DirectX 12 i dlaczego są z tym kłopoty.
Jak mierzyć wydajność w DirectX 12?
Niskopoziomowe API, takie jak DirectX 12 czy Vulkan, oddają programowi kontrolę nad większością etapów procesu renderowania – również nad tymi, które do tej pory należały do systemu operacyjnego. Dlatego nie jest możliwe (na razie), żeby zewnętrzny kod dodawał swoje instrukcje do potoku renderowania. Zatem nie mogą działać typowe narzędzia do mierzenia wydajności: nakładki takie jak GUI MSI Afterburnera, żółte cyfry FRAPS-a czy paski FCAT. Łatwo zauważyć tendencję do wbudowywania narzędzi pomiarowych w samą grę. Twórcom gier (oraz ich mentorom ze świata sprzętu i systemów operacyjnych) zależy na tym, by pokazać zalety nowego API. Ashes of Singularity ma wbudowany benchmark; podobne moduły dodano do Rise of the Tomb Raider (co ciekawe, dopiero w aktualizacji udostępniającej tryb DX12) i Hitmana.
Czytaj także: Ashes of the Singularity BETA – test kart graficznych i procesorów w benchmarku DirectX 12
Benchmarki są jednak obciążone wieloma problemami. Po pierwsze, nie reprezentują wiernie doznań gracza siedzącego przed monitorem. Program zna swoją część toru renderowania i tylko ją może zmierzyć. Ostatni etap – prezentacja, czyli wysłanie gotowej klatki do monitora – pozostaje pod kontrolą sterownika karty graficznej i systemu operacyjnego. Jeśli sterownik i OS wymuszą synchronizację pionową, program może o tym nie wiedzieć i raportować znacznie większą liczbę klatek na sekundę, niż widzi gracz.
Po drugie, benchmarki we wszystkich trzech wymienionych grach nie pozwalają na konfigurację scen, w których mierzona jest wydajność. Usiłują pokazać przekrój całej rozgrywki, również momentów nieistotnych i tych, w których nie potrzeba dużej płynności. Wyniki w benchmarku w Hitmanie są szczególnie bezużyteczne: maksymalna liczba klatek jest wręcz nieprawdopodobnie zawyżona, minimalna – zaniżona, a średnia nie reprezentuje niczego ważnego z punktu widzenia gracza.
Jeśli nie wbudowane benchmarki, to co?
Choć w DirectX 12 nie ma (na razie) uniwersalnego sposobu na dodawanie nakładek graficznych do obrazu z gry, można śledzić proces renderowania bez ingerowania w niego. Najbardziej obiecującą metodą jest liczenie poleceń, którymi programy nakazują systemowi operacyjnemu wyświetlenie obrazu. Każde takie polecenie oznacza, że obraz został już przygotowany przez grę i tylko czeka na sterownik oraz system. Umie je śledzić na przykład nakładka ShadowPlay, czyli narzędzia do nagrywania obrazu wbudowanego w sterowniki GeForce. Powstał też prosty (i niewygodny w użyciu) program, który monitoruje dowolny kod DirectX 11, DirectX 12 lub Vulkan i zapewnia podobne wyniki jak FRAPS, ale ich odczytanie nastręcza trudności. Poza tym widzi on – tak samo jak wbudowane benchmarki, ShadowPlay i FRAPS – tylko jeden z ostatnich etapów wyświetlania obrazu, a nie to, co faktycznie pokaże się na monitorze.
Dlatego uważamy, że na razie jedyną rzetelną metodą pomiaru jest analizowanie tego, co widzi gracz. Tylko taki sposób jest zupełnie niezależny od jakichkolwiek efektów, które mogłyby zakłamywać wyniki. Wykorzystaliśmy własną metodę pomiaru, tę samą co w testach gier konsolowych i w teście Mantle.
Nagrywamy nieskompresowany obraz wysyłany do monitora; autorski program analizuje go klatka po klatce, wykrywa, kiedy pojawia się nowy obraz, i zapisuje dane w stabelaryzowanej postaci, którą możemy łatwo analizować i wykorzystać do utworzenia wykresów. Nasza metoda jest całkowicie niezależna od systemu operacyjnego, API, producenta karty graficznej czy jakiegokolwiek oprogramowania zainstalowanego w testowym komputerze. Nie ingeruje w żaden sposób w badany obiekt.
DirectX 12 + synchronizacja pionowa (VSync)
Zanim przedstawimy wyniki testów, wyjaśnimy, dlaczego wyglądają tak, a nie inaczej. Jak wspomnieliśmy, w przypadku DirectX 12 i Windows 10 to system operacyjny ma kontrolować wyświetlanie obrazu. Program wydaje polecenie Present, a system wykonuje je według własnego uznania. Źródłowe dane na ten temat są zadziwiająco ubogie; jeśli wierzyć przetrawionym informacjom podawanym przez zagraniczne witryny (np. PCper), Microsoft chce, żeby tak pozostało. Dzięki temu producent systemu operacyjnego może wymusić synchronizację pionową, co oznacza lepsze odczucia użytkownika systemu (np. odświeżanie pulpitu Windows od dawna jest zsynchronizowane z odświeżaniem pionowym ekranu).
Nie trzeba chyba wyjaśniać, że choć synchronizacja pionowa często jest pożyteczna i pożądana, to wymuszanie, by zawsze była włączona, jest bardzo niekorzystne z punktu widzenia graczy. Na szczęście można to obejść, bo odpowiednie mechanizmy są wbudowane w API i system operacyjny. Obecnie VSync jest wymuszona:
- we wszystkich grach kupionych przez Windows Store (platforma UWP), niezależnie od zainstalowanej karty graficznej i API,
- w trybie DirectX 12 w większości gier uruchomionych z użyciem kart graficznych AMD.
Hitman w pięciokrotnym spowolnieniu. W przypadku obu systemów synchronizacja pionowa w grze była wyłączona
Jak twierdzi PCPer, sterowniki AMD zachowują się zgodnie z zaleceniami Microsoftu i umożliwiają systemowi operacyjnemu wymuszenie synchronizacji pionowej. Nvidia stosuje inny mechanizm wyświetlania, pozwalający kontrolować to za pomocą panelu konfiguracyjnego sterownika (włączenie lub wyłączenie synchronizacji w samej grze często nie przynosi rezultatów!). Jest to konieczne choćby do działania techniki G-Sync. Krótko przed publikacją tego artykułu AMD poinformowało nas, że w obecnej (jeszcze nieukończonej) wersji gry Ashes of the Singularity synchronizację pionową można już wyłączyć, ale dotąd nie mieliśmy możliwości tego zweryfikować. Jesteśmy w kontakcie z AMD i spodziewamy się obszerniejszych informacji na temat VSync w DirectX 12.
Dlaczego tak jest i kiedy się to zmieni? Microsoft, AMD i Nvidia nie sformułowały żadnego oficjalnego stanowiska. Według doniesień z Game Developers Conference Microsoft pracuje nad usprawnieniem platformy UWP (Windows Store), tak żeby można było wyłączyć synchronizację pionową, oraz działaniem technik multi-GPU i innych, do których przywykliśmy przez lata.
Kiedy włączona jest synchronizacja pionowa, czas oczekiwania na kolejny nowy obraz może przyjąć tylko kilka kwantyfikowanych wartości. Dlatego podawanie minimalnej liczby klatek na sekundę nie ma sensu: chwilowa minimalna wartość jest niemal zawsze pierwszą dostępną wartością poniżej średniej. W dalszej części artykułu będziemy przedstawiać średnią liczbę klatek na sekundę w grach uruchamianych w trybie DirectX 12. Jeśli widzicie średnią między 30 kl./sek. a 60 kl./sek., to wiedzcie, że minimalną wartością było 30 kl./sek. – i tak samo w innych przedziałach.
My użyliśmy 120-hercowego monitora, pozwalającego nam mierzyć wydajność do 120 kl./sek. Trzeba jednak wziąć pod uwagę to, że użytkownik monitora 60-hercowego przy włączonej synchronizacji pionowej nigdy nie zobaczy większej płynności. W takich warunkach nie ma zatem praktycznej różnicy między dwoma kartami graficznymi, z których jedna osiąga 65 kl./sek., a druga – 75 kl./sek. (wyjąwszy zmniejszone opóźnienie sygnału, inaczej input lag, w sytuacji, gdy wydajność znacznie przekracza częstotliwość odświeżania monitora).
Założenia i metodyka testów
Test wpływu API na wydajność wymaga czegoś więcej niż po prostu wkładania kolejnych kart graficznych do jednej konfiguracji sprzętowej i przełączania się pomiędzy trybami DirectX 11 i DirectX 12. Żeby rozeznać się choć odrobinę w tym, jak kształtują się osiągi sprzętu w obu trybach, użyliśmy siedmiu różnych procesorów i sześciu różnych kart graficznych.
Procesory
Te liczby nie są przypadkowe: w końcu nowe API Microsoftu ma, według zapowiedzi, przede wszystkim odciążyć procesor. Dlatego wybraliśmy jednostki z różnych przedziałów cen i o różnej wydajności, a konkretnie:
- Intel Core i7-6700K 4,7 GHz (1550 zł). Najszybszy przetestowany przez nas procesor to podkręcony do 4,7 GHz czterordzeniowy, ośmiowątkowy Core i7 w architekturze Skylake. Traktujemy go jako najszybszą jednostkę, jaką może mieć w domu entuzjasta.
- Intel Core i5-6600K (1075 zł). Core i5-6600K to już w fabrycznej, niepodkręconej konfiguracji bardzo szybki procesor, dlatego postanowiliśmy przetestować go jako przedstawiciela czterordzeniowych, czterowątkowych układów Intela ze standardowo działającym trybem Turbo: od 3,5 GHz do 3,9 GHz.
- Intel Core i3-6100 (525 zł). Core i3-6100, kosztujący nieco ponad 500 zł, został przedstawicielem dwurdzeniowych, czterowątkowych jednostek Intela.
- Intel Pentium G4400 (260 zł). Dwurdzeniowy, dwuwątkowy Pentium taktowany z częstotliwością 3,3 GHz to jeden z najwolniejszych układów w ofercie Intela. W kontekście niegdysiejszych problemów Nvidii z dwurdzeniowymi procesorami i obecnych problemów AMD z narzutem sterownika może to być ciekawy sprawdzian dla nowego API Microsoftu.
- AMD FX-8350 (735 zł). Najszybsza sensowna jednostka w ofercie AMD. Kosztujący ponad 1000 zł AMD FX-9590 nie ma czego szukać w rywalizacji z podobnie wycenionym Core i5-6600K, dlatego to właśnie dostępny za nieco ponad 700 zł i stosunkowo popularny AMD FX-8350 trafił do naszego testu.
- AMD FX-6350 (570 zł). To naturalny wybór obok czteromodułowego, ośmiowątkowego FX-a 8350. Kosztujący prawie 600 zł trzymodułowy, sześciowątkowy FX-6350 pozwoli ocenić wykorzystanie wątków w DirectX 12.
- AMD FX-4300 (315 zł). Dwumodułowy, czterowątkowy FX z serii 4300 to jeden z najsłabszych CPU w ofercie AMD. Dostępny w cenie lekko przekraczającej 300 zł, może być ciekawym przedstawicielem firmy w starciu jej koncepcji (więcej wolniejszych wątków) z podejściem Intela (mniej szybszych wątków), a dokładniej: w pojedynku z układem Pentium G4400.
Karty graficzne
Do procesorów dobraliśmy sześć kart graficznych i połączyliśmy te podzespoły w pary z uwzględnieniem poszczególnych przedziałów cen.
Pierwsza para to starcie na szczycie, czyli pojedynek konkurencyjnych rozwiązań za prawie 3 tys. zł:
- AMD Radeon R9 Fury X 4 GB (2750 zł). Najszybsza karta graficzna w ofercie AMD, wyposażona w zintegrowany układ chłodzenia cieczą oraz rdzeń Fiji XT, który ma do dyspozycji 4 GB pamięci HBM.
- Nvidia GeForce GTX 980 Ti 6 GB (2800 zł). Drugi najszybszy model w ofercie Nvidii, oparty na nieco przyciętym rdzeniu GM200 i współpracujący z 6 GB pamięci GDDR5.
Druga para to rozwiązania za mniej więcej 1400–1500 zł. Ich rywalizacja wywołuje bardzo wiele internetowych kłótni:
- AMD Radeon R9 390 8 GB (1450 zł). To model R9 290 w nowym przebraniu, o szybszym taktowaniu rdzenia Hawaii i podwójnej dawce pamięci VRAM.
- Nvidia GeForce GTX 970 4 GB (1375 zł). Najpopularniejsza obecnie karta graficzna, wyposażona w przycięty rdzeń GM204 i 4 GB VRAM o niecodziennym podziale na partycje.
Karty tańsze od dotąd wymienionych, ale wciąż wydajne to:
- AMD Radeon R9 380 4 GB (930 zł). Czterogigabajtowy Radeon R9 380 to Radeon R9 285 z podwójną dawką pamięci i o szybszym taktowaniu rdzenia graficznego, zbudowanego w architekturze GCN trzeciej generacji.
- Nvidia GeForce GTX 960 4 GB (850 zł). To „średni” Maxwell, czyli rdzeń GM206 w pełnej konfiguracji z 4 GB VRAM.
Wszystkie wymienione karty graficzne przetestowaliśmy w ustawieniach referencyjnych, czyli zalecanych przez Nvidię i AMD.
Gry
Gier obsługujących DirectX 12 nie ma zbyt wiele, choć miało być ich więcej. Do ostatniej chwili czekaliśmy między innymi na Just Cause 3, która łatkę zapewniającą dostęp do DX12 miała otrzymać mniej więcej w czasie konferencji GDC. Ostatecznie wybraliśmy trzy obecnie dostępne gry, które każdy może wypróbować w działaniu u siebie w domu.
Gears of War Ultimate Edition
Gears of War Ultimate Edition to nowa, odświeżona wersja gry wcześniej dostępnej w wersji na konsolę Xbox poprzedniej generacji. Produkcją zajęło się studio The Coalition, a gra jest do kupienia wyłącznie w sklepie Windows, więc działa na platformie UWP. Zapewnia widok z perspektywy „trzeciej osoby”. Test wykonaliśmy w trakcie walki z wieloma przeciwnikami na jednym z początkowych etapów. W grze dostępny jest wyłącznie tryb DirectX 12 i nie można wymusić renderowania z użyciem starszego API.
Hitman
Najnowszy Hitman to pierwsza gra wydawana w odcinkach. Wcześniej sprawdzaliśmy wydajność w wersji BETA, ale nie miała ona zaimplementowanej obsługi nowego DirectX, która pozwoliłaby przeprowadzić poważniejsze testy. W finalnej wersji gry producent zapewnił taką możliwość. Osiągi sprzętu mierzyliśmy w jedynej obecnie dostępnej misji o nazwie Showstopper. Nasz test polegał na przejściu przez tłum złożony z wielu postaci niezależnych (NPC).
Rise of the Tomb Raider
Rise of the Tomb Raider to gra, którą już testowaliśmy w wersji finalnej, ale która niedawno otrzymała łatkę wprowadzającą między innymi tryb DirectX 12. Postanowiliśmy jeszcze raz przyjrzeć się wydajności w tej produkcji. Wykorzystaliśmy nowe miejsce testowe, znajdujące się na początku misji o nazwie Approaching Storm. To jedno z najbardziej wymagających miejsc w grze, w którym musimy poradzić sobie z wieloma mocno opancerzonymi przeciwnikami.
W łatce dodającej obsługę DX12 pojawiła się również obsługa nowej techniki Nvidii, VXAO, ale ta opcja nie jest częścią predefiniowanych ustawień Very High, w których testowaliśmy, a ponadto działa tylko w trybie DirectX 11, więc całkowicie zrezygnowaliśmy z jej wykorzystania.
Platforma testowa
Platforma do pomiarów wydajności kart graficznych składała się z następujących podzespołów:
Sprzęt | Dostawca | |
---|---|---|
Procesor | Core i7-6700K @ 4,7 GHz | |
Płyta główna | Asus Z170 Deluxe | www.asus.com |
Płyta główna AM3+ | Asus Sabertooth 990X R2.0 | www.asus.com |
Monitor WQHD 144 Hz G-Sync | Asus ROG Swift PG278Q | www.nvidia.pl |
Monitor 4K 60 Hz G-Sync | Acer XB280HK | www.acer.pl |
Pamięć DDR-4 | Kingston HyperX Predator DDR4 16 GB 2666 MHz | www.kingston.com |
Pamięć DDR-3 | G.Skill Ripjaws Z 8 GB F3-17000CL10Q-16GBZH | www.gskill.com |
Nośnik systemowy | Crucial BX100 960 GB | www.crucial.com |
Nośnik dodatkowy | Crucial BX100 960 GB | www.crucial.com |
Schładzacz procesora | Noctua NH-D15 | www.noctua.at |
Zasilacz | Corsair RM1000i | www.corsair.com |
Obudowa | aerocool.com.plCorsair Graphite 780T | www.corsair.com |
Kopia zapasowa danych | Acronis True Image 2014 | www.acronis.pl |
Miernik natężenia dźwięku | Sonopan SON-50 | www.sonopan.com.pl |
System operacyjny:
- Windows 10 64-bitowy.
Sterowniki:
- AMD Radeon Software Crimson Edition 16.3.1 hotfix;
- Nvidia GeForce 364.47 WHQL.
Gears of War Ultimate Edition (GPU) – Intel Core i7-6700K 4,7 GHz
W grze dostępny jest wyłącznie tryb z DirectX 12.
Po użyciu najszybszego na rynku i dodatkowo podkręconego procesora w Gears of War na prowadzenie wyraźnie wysuwają się karty graficzne GeForce: GTX 980 Ti jest szybszy od Radeona R9 Fury X o ponad 40%, GTX 970 pokonuje R9 390 o prawie 20%, a GTX 960 wyprzedza R9 380 o mniej więcej 30%.
Gears of War Ultimate Edition (GPU) – Intel Core i5-6600K
W grze dostępny jest wyłącznie tryb z DirectX 12.
Core i5-6600K, wciąż bardzo szybki, ale jednak wolniejszy od Core i7-6700K podkręconego do 4,7 GHz, sprawia, że Radeony zmniejszają dystans do GeForce'ów: zarówno GTX 980 Ti, jak i GTX 970 są tutaj szybsze od swoich rywali o mniej więcej 13%. O dziwo, GTX 960 utrzymuje przewagę, i to mniej więcej 30-procentową, nad Radeonem R9 380.
Gears of War Ultimate Edition (GPU) – Intel Core i3-6100
W grze dostępny jest wyłącznie tryb z DirectX 12.
Testy przeprowadzone z użyciem Core i3-6100 wykazały, że jest to procesor zbyt wolny, by pokazać różnice pomiędzy wydajniejszymi kartami w Gears of War. Modele: GTX 980 Ti, GTX 970, R9 Fury X oraz R9 390 zapewniły praktycznie taką samą wydajność, 66–67 kl./sek., właśnie ze względu na zbyt wolną jednostkę centralną. O wyniku starcia słabszych kart (GTX 960 kontra R9 380) ponownie zdecydowała wydajność graficzna, a GeForce utrzymał mniej więcej 26-procentową przewagę nad Radeonem.
Gears of War Ultimate Edition (GPU) – Intel Pentium G4400
W grze dostępny jest wyłącznie tryb z DirectX 12.
Skoro Core i3-6100, którego wyniki pokazaliśmy na poprzedniej stronie, nie pozwolił kartom rozwinąć skrzydeł, tym bardziej nie mógł tego zrobić Pentium G4400, też zbyt słaby, by pokazać różnice pomiędzy kartami z dwóch najwyższych segmentów. Wciąż można natomiast zaobserwować przewagę GTX-a 960 nad Radeonem R9 380.
Gears of War Ultimate Edition (GPU) – AMD FX-8350
W grze dostępny jest wyłącznie tryb z DirectX 12.
W Gears of War karty graficzne AMD poradziły sobie zaskakująco dobrze w połączeniu z procesorem AMD FX-8350, co w DirectX 11 nie miało prawa nastąpić. Radeony wygrywają z GeForce'ami w każdej kategorii z przewagą od 12% do 18%.
Gears of War Ultimate Edition (GPU) – AMD FX-6350
W grze dostępny jest wyłącznie tryb z DirectX 12.
Trend, który ujawnił test z użyciem AMD FX-8350, utrzymuje się w przypadku procesora, który ma o 1/4 mniej zasobów, czyli trzymodułowego, sześciowątkowego FX-6350. I tym razem starcie wygrywają karty graficzne AMD.
Gears of War Ultimate Edition (GPU) – AMD FX-4350
W grze dostępny jest wyłącznie tryb z DirectX 12.
Test przeprowadzony z użyciem czterowątkowego FX-4300 ostatecznie pokazuje, że Radeony lepiej radzą sobie we współpracy z procesorami AMD FX niż ich wydajnościowe odpowiedniki z obozu Nvidii.
Gears of War Ultimate Edition (CPU) – GeForce GTX 980 Ti, GTX 970, GTX 960
W grze dostępny jest wyłącznie tryb z DirectX 12.
Po zamontowaniu w komputerze najszybszej karty graficznej w naszym zestawieniu, czyli GeForce'a GTX-a 980 Ti, wydajność procesorów Intela ładnie się skaluje: kolejne wątki i coraz szybsze taktowanie zapewniają wyraźne wzrosty wydajności.
Sytuacja wygląda nieco inaczej po połączeniu karty graficznej z serii GeForce z jednym z procesorów AMD FX: wtedy wydajność jest stała i słaba, a dwuwątkowy Pentium G4400 pokonuje ośmiowątkowego FX-a 8350.
GeForce GTX 970 spłaszcza wyniki procesorów z wysokiego segmentu, bo niepodkręcony Core i5-6600K jest prawie tak szybki jak podkręcony Core i7-6700K. Różnica w osiągach tych układów w tandemie z GTX-em 970 wynosi tylko 5%, choć realnie jest o wiele większa.
W dolnej części wykresu wciąż mamy sytuację taką jak po użyciu GTX-a 980 Ti: wszystkie procesory AMD FX zapewniają wydajność gorszą niż najsłabsza przetestowana przez nas jednostka Intela.
Użycie GTX-a 960 prawie całkowicie niweluje różnice: Core i3-6100 jest tylko o 7% wolniejszy od podkręconego do 4,7 GHz Core i7-6700K, mimo że ten ma dwa razy więcej rdzeni i wątków.
W przypadku procesorów AMD wciąż widać, że to właśnie one stają się ograniczeniem nawet dla GTX-a 960: zapewniają 35–37 kl./s, podczas gdy dwuwątkowy Pentium G4400 zapewni nie mniej niż 40 kl./s.
Gears of War Ultimate Edition (CPU) – Radeon R9 Fury X, R9 390, R9 380
W grze dostępny jest wyłącznie tryb z DirectX 12.
Radeony wciąż mają problem z narzutem sterownika na procesor, i to nawet w trybie DirectX 12. Różnica w wydajności pomiędzy najszybszym w ofercie AMD Radeonem R9 Fury X a Radeonem R9 390 wynosi niecałe 12%, co oznacza, że procesor był niewystarczająco szybki, by wykazać różnicę pomiędzy tymi kartami, które przecież znacząco różnią się od siebie. Jednak podkręconego Core i7-6700K trudno nazwać niewystarczająco szybkim: dopóki nie nadejdzie następna generacja procesorów, szybciej po prostu już się nie da.
W przypadku konfiguracji z kartami Radeon różnice pomiędzy poszczególnymi procesorami zacierają się: Core i5-6600K jest tylko o 1–5% wolniejszy od realnie znacznie szybszego podkręconego Core i7-6700K. Różnica pomiędzy tym pierwszym a Core i3 też wynosi tylko 2–7%, mimo że i3 przy takiej samej liczbie wątków ma mniej fizycznych rdzeni. Wyraźnie odstaje od nich dopiero dwurdzeniowy, dwuwątkowy Pentium G4400.
Hitman (GPU) – Intel Core i7-6700K 4,7 GHz
W najnowszej części Hitmana mogliśmy już zmierzyć różnice pomiędzy trybami DirectX 11 i DirectX 12.
W połączeniu z najszybszym procesorem GeForce GTX 980 Ti w DirectX 11 wygrał z 7-procentową przewagą z Radeonem R9 Fury X. Zmiana API na nowsze w przypadku GTX-a 980 Ti przyniosła dodatkowy, 12-procentowy wzrost wydajności, ale Radeon R9 Fury X zyskał sporo więcej, bo aż 27%, co sprawiło, że czołowy model AMD wysunął się na prowadzenie i ostatecznie w DirectX 12 pokonał 980 Ti o 6%.
Pojedynek Radeona R9 390 i GTX-a 970 w Hitmanie bezapelacyjnie wygrał ten pierwszy: nawet w trybie DirectX 11 wyprzedził GeForce'a o prawie 20%. Po włączeniu trybu DirectX 12 GeForce zyskał około 4% wydajności, ale to zdecydowanie za mało, by zagrozić Radeonowi R9 390, który po przełączeniu API przyśpieszył o 18%.
Równie sromotną porażkę w pojedynku z Radeonem R9 380 poniósł GeForce GTX 960: przegrał zarówno w trybie DirectX 12, jak i DirectX 11 o mniej więcej 30%.
Hitman (GPU) – Intel Core i5-6600K
Po użyciu procesora Core i5-6600K rywalizacja GTX-a 980 Ti i R9 Fury X przebiega podobnie jak w konfiguracji z Core i7-6700K: w trybie DirectX 11 wygrywa produkt Nvidii, ale po zmianie API na nowsze Radeon R9 Fury X zyskuje aż 60% wydajności, by ostatecznie pokonać model 980 Ti o nieco ponad 5%.
Już po użyciu niepodkręconego Core i5 można było zaobserwować lekki spadek formy Radeona R9 390, który w połączeniu z Core i7-6700K podkręconym do 4,7 GHz zdołał wyraźnie pokonać GTX-a 970 nawet w trybie DirectX 11. Tym razem obie karty się zrównały, z lekkim wskazaniem (2–3% przewagi) na kartę Nvidii. Po przełączeniu Hitmana w tryb DirectX 12 GeForce GTX 970 przyśpieszył jednak tylko marginalnie (o mniej niż 2%), a Radeon R9 390 włączył turbodoładowanie i ostatecznie pokonał GTX-a 970 o prawie 40%.
W przypadku najwolniejszych kart graficznych w naszym teście, czyli GTX-a 960 i Radeona R9 390, nic się nie zmieniło po zmianie procesora z Core i7-6700K na Core i5-6600K: karta AMD wciąż jest wyraźnie szybsza zarówno w trybie DirectX 11, jak i DirectX 12.
Hitman (GPU) – Intel Core i3-6100
Im słabszy procesor, tym gorzej radzą sobie Radeony – ponownie nawet w trybie DirectX 12. GeForce GTX 980 Ti w połączeniu z Core i3-6100 zgodnie z oczekiwaniami wygrał pojedynek w DirectX 11 (tak jak po użyciu procesorów Core i7 oraz Core i5), ale utrzymał tę przewagę także po przełączeniu gry w tryb DirectX 12.
Użycie Core i3-6100 spowodowało również obniżenie formy Radeona R9 390. Wcześniej wygrywał lub zrównywał się w trybie DirectX 11 z GeForce'em GTX-em 970, a tym razem ukończył rywalizację z ponad 20-procentową stratą. Ten błąd został naprawiony w trybie DirectX 12, w którym GeForce GTX 970 znów przyspieszył tylko nieznacznie, a Radeon R9 390 – aż o 37%, co ostatecznie pozwoliło mu znaleźć się na czele stawki.
Core i3 okazał się nieco zbyt słaby także dla Radeona R9 380. Wciąż był szybszy od GTX-a 960 nawet w trybie DirectX 11, ale jego przewaga mocno stopniała w porównaniu z konfiguracją opartą na szybszym procesorze.
Hitman (GPU) – Intel Pentium G4400
Intel Pentium G4400 spowodował mniejsze lub większe zatarcie się różnic we wszystkich konfiguracjach. GeForce GTX 980 Ti dotarł na metę przed Radeonem R9 Fury X, ale największą niespodziankę sprawiły konfiguracje z GTX-em 970 oraz 960: te karty połączone z szybszymi procesorami miały ciężką przeprawę z Radeonami, ale w tandemie z najwolniejszą przetestowaną przez nas jednostką zrównały się z rywalami z obozu AMD, lub nawet ich wyprzedziły.
Hitman (GPU) – AMD FX-8350
Zarówno GeForce GTX 980 Ti, jak i Radeon R9 Fury X wyraźnie przyspieszyły w parze z procesorem FX-8350 po przełączeniu API z DirectX 11 na DirectX 12. Aż o 83% więcej klatek na sekundę w obu przypadkach robi wrażenie.
Na górnej półce, na której znajdują się GTX 970 i R9 390, sytuacja nieco się zmieniła: karta Nvidii przyśpieszyła po zmianie API już „tylko” o 1/3, podczas gdy konstrukcja AMD znów zapewniła o ponad 80% więcej klatek na sekundę.
Połączenie najsłabszych przetestowanych przez nas kart graficznych z FX-em 8350 przyniosło gorsze rezultaty niż w przypadku dwóch poprzednich par: GeForce GTX 960 nie przyśpieszył w zasadzie w ogóle, a Radeon – „tylko” o ponad 30%.
Hitman (GPU) – AMD FX-6350
W połączeniu z AMD FX-6350 karty Nvidii w postaci GTX-a 980 Ti oraz GTX-a 970 przyśpieszają o 33–55%. I chociaż w trybie DirectX 11 wygrywają z Radeonami, w DirectX 12 to właśnie karty AMD zyskują więcej: o 70–75%, dzięki czemu w nowym API wysuwają się na prowadzenie.
W DirectX 12 GeForce GTX 960 w połączeniu z trzymodułowym FX-em nie przyśpiesza praktycznie w ogóle, natomiast Radeon R9 380 zapewnia wydajność lepszą o niemal 40%.
Hitman (GPU) – AMD FX-4350
Sytuacja z FX-em 4300 jest taka sama jak w przypadku procesorów FX-8350 oraz FX-6350: karty Nvidii wygrywają w trybie DirectX 11, ale po przełączeniu się na nowe API zyskują mniej, przez co ostatecznie w nowym API muszą uznać wyższość odpowiedników AMD.
Hitman (CPU) – GeForce GTX 980 Ti, GTX 970, GTX 960
Test procesorów w konfiguracji z bardzo szybką kartą graficzną pokazuje, na co warto zwrócić uwagę:
- Pentium G4400 praktycznie nie przyśpiesza po przełączeniu się z DirectX 11 na DirectX 12,
- najbardziej wśród procesorów Intela przyspieszył Core i3-6100: w trybie DirectX 12 – o ponad 20%, i ostatecznie osiągnął rezultat lepszy od wyniku Core i5-6600K w trybie DirectX 11,
- najbardziej wśród procesorów AMD przyśpieszył FX-8350: w trybie DirectX 12 jego wydajność zwiększyła się o ponad 80% względem DirectX 11, co pozwoliło mu pokonać Core i5-6600K przetestowanego w trybie DirectX 11.
GeForce GTX 970 wykazał się zbyt małą wydajnością graficzną, by współpracujące z nim procesory mogły rozwinąć skrzydła, przez co wykres jest spłaszczony bez względu na tryb DirectX. Wśród procesorów Intela tylko dwurdzeniowy, dwuwątkowy Pentium G4400 wyraźnie odstaje (o ponad 40%) od innych przetestowanych procesorów tego producenta. W obozie AMD dzielnie trzymają się FX-8350 oraz FX-6350 działające w trybie DirectX 12, ale ich wydajność w DirectX 11 pozostawia wiele do życzenia (zrównują się z przeszło dwukrotnie tańszym Pentium G4400).
Użycie GeForce'a GTX-a 960 całkowicie wypaczyło wykresy z wynikami procesorów: wszystkie jednostki, bez względu na liczbę wątków czy taktowanie, są praktycznie tak samo szybkie. Core i7-6700K podkręcony do 4,7 GHz okazał się tylko o 8% lepszy od dwurdzeniowego Pentium taktowanego z częstotliwością 3,3 GHz.
Hitman (CPU) – Radeon R9 Fury X, R9 390, R9 380
Test Radeona R9 Fury X oraz R9 390 pozwolił zaobserwować podobne prawidłowości. Pentium G4400 po przełączeniu z trybu DirectX 11 na DirectX 12 i tym razem jest tylko nieznacznie szybszy (o mniej więcej 15%), podczas gdy pozostałe procesory przyspieszają znacząco: Core i3 – nawet o 37%, Core i5 – o 43%, Core i7 – o 27%, AMD FX-4300 – o 52%, AMD FX-6350 – o 72%, AMD FX-8350 – o 82%.
Osiągi poszczególnych procesorów w tandemie z Radeonem R9 380 są zbliżone, co widać szczególnie w górnej części wykresu. W DirectX 11 Core i5 oraz Core i7 zapewniają podobną wydajność, ale Core i3 i Pentium są proporcjonalnie wolniejsze, natomiast w trybie DirectX 12 Core i3-6100, Core i5-6600K oraz Core i7-6700K mają bardzo zbliżone osiągi i tylko Pentium radzi sobie gorzej.
Jednostki AMD w trybie DirectX 11 zapewniają wydajność na poziomie Pentium G4400, ale w DirectX 12 zrównują się z Core i5 oraz Core i7 (modele FX-8350 i FX-6350) lub Core i3-6100 (FX-4300). Długość słupków w górnej części wykresu ogranicza karta graficzna.
Rise of the Tomb Raider (GPU) – Intel Core i7-6700K 4,7 GHz
W Rise of the Tomb Raider, czy to w DirectX 11, czy w DirectX 12, obserwujemy ogromną, bo aż 65-procentową przewagę GeForce'a GTX-a 980 Ti nad Radeonem R9 Fury X. Co ciekawe, choć GeForce GTX 980 Ti w DirectX 12 ponownie nieznacznie przyspiesza, Radeon R9 Fury X w tym samym trybie wręcz traci 15% względem DirectX 11.
W segmencie wysokim, a więc tam, gdzie rywalizują GeForce GTX 970 i Radeon R9 390, również mamy nietypową sytuację: w trybie DirectX 11 zarysowuje się wyraźna, 20-procentowa przewaga tej pierwszej karty. Po przełączeniu się w tryb DirectX 12 obie tracą na wydajności: Radeon R9 390 zalicza 7-procentowy spadek, a GeForce GTX 970 – aż 23-procentowy.
W niższym segmencie Radeon R9 380 w obu API przegrywa z GeForce'em GTX-em 960. Tak samo jak w przedstawionym powyżej przypadku obie karty tracą na wydajności po przełączeniu gry w tryb DirectX 12.
Rise of the Tomb Raider (GPU) – Intel Core i5-6600K
Wyniki kart graficznych we współpracy z procesorem Core i5-6600K nie wymagają komentarza, ponieważ jest to w zasadzie kopia sytuacji, którą przyniósł test z użyciem Core i7-6700K: wciąż mamy ogromną przewagę GTX-a 980 Ti nad Radeonem R9 Fury X i spadek wydajności GTX-ów 970 i 960 oraz Radeonów R9 390 i 380 po przełączeniu Rise of the Tomb Raider z trybu DirectX 11 na DirectX 12.
Rise of the Tomb Raider (GPU) – Intel Core i3-6100
Użycie procesora Core i3 nic nie zmienia w najwyższym segmencie: GeForce GTX 980 Ti wciąż pewnie, z 50-procentową przewagą, pokonuje Radeona R9 Fury X.
Pojedynek GTX-a 970 oraz R9 390 wygrywa ten drugi, a przy tym po raz kolejny obie karty tracą na wydajności w trybie DirectX 12.
GeForce GTX 960 w parze z Core i3 nadal sprawuje się lepiej niż Radeon R9 380 we współpracy z tym samym procesorem: wygrywa to starcie zarówno w trybie DirectX 11, jak i DirectX 12. Ponownie obie konstrukcje w DirectX 12 radzą sobie gorzej niż w DirectX 11.
Rise of the Tomb Raider (GPU) – Intel Pentium G4400
Rise of the Tomb Raider uruchomiony z wykorzystaniem dwurdzeniowego, dwuwątkowego Pentium będzie wymagał od gracza nieco cierpliwości, ponieważ zdarzają się problemy: czasem występują tylko błędy w animacji postaci, czasem szwankuje również sztuczna inteligencja, a czasem nie włącza się przerywnik filmowy i nie można kontynuować gry... Kilka wersji tych zdarzeń przedstawiamy na poniższym filmie.
Kilka wersji tej samej sceny w RotTR po użyciu dwuwątkowego procesora
Mimo wszystko postanowiliśmy przeprowadzić testy z użyciem tej jednostki.
GeForce GTX 980 Ti tym razem wyraźnie nie lubi Pentium G4400: ponad 50-procentowa przewaga nad Radeonem R9 Fury X (w konfiguracji z Core i7, Core i5 lub Core i3) stopniała do minimalnej, 4-procentowej. Po raz pierwszy po przełączeniu się z trybu DirectX 11 na DirectX 12 przyśpieszył najmocniejszy Radeon w ofercie AMD – o 31%.
GeForce GTX 970 wygrał z Radeonem R9 390 w obu API, choć jego wydajność po przełączeniu się na DirectX 12 minimalnie spadła, podczas gdy Radeon przyspieszył o prawie 25%.
GeForce GTX 960 utrzymał swoją przewagę nad Radeonem R9 380 we wszystkich trybach, bez względu na użyty procesor, a więc również w tandemie z Pentium G4440. Obie karty po przełączeniu gry w tryb DirectX 12 spowolniły.
Rise of the Tomb Raider (GPU) – AMD FX-8350
W Tomb Raiderze GeForce GTX 980 Ti w parze z procesorem AMD FX-8350 przyspieszył po zmianie API z DirectX 11 na DirectX 12 o 1/3, a Radeon R9 Fury X – o 16%.
Z kolei GeForce GTX 970 połączony z FX-em z serii 8 po zmianie API obniża loty, bo traci prawie 10%, natomiast Radeon R9 390 przyśpiesza o niecałe 7%.
Najsłabsza para kart, czyli GeForce GTX 960 i Radeon R9 380, w połączeniu z procesorem FX-8350 traci na wydajności po przełączeniu gry w tryb DirectX 12, przy czym konstrukcja Nvidii spowalnia znacznie mocniej, o ponad 30%.
Rise of the Tomb Raider (GPU) – AMD FX-6350
Sytuacja poszczególnych kart graficznych połączonych z procesorem AMD FX-6350 jest w zasadzie taka sama jak po użyciu AMD FX-8350: GTX 980 Ti, R9 Fury X oraz R9 390 przyśpieszają, natomiast GTX 970, GTX 960 oraz R9 380 spowalniają.
Rise of the Tomb Raider (GPU) – AMD FX-4350
Karty graficzne w Rise of the Tomb Raider nie radzą sobie najlepiej we współpracy z procesorem AMD FX-4300: po zmianie API z DirectX 11 na DirectX 12 przyspieszył tylko Radeon R9 Fury X, natomiast pozostałe straciły na wydajności.
Rise of the Tomb Raider (CPU) – GeForce GTX 980 Ti, GTX 970, GTX 960
GeForce GTX 980 Ti w Rise of the Tomb Raider okazał się zbyt wolny dla najszybszych procesorów na rynku: Core i5-6600K oraz podkręcony Core i7-6700K osiągnęły praktycznie te same wyniki zarówno w trybie DirectX 11, jak i DirectX 12. Core i3 w połączeniu z GTX-em 980 Ti był wolniejszy od wymienionych jednostek o mniej więcej 13%, a Pentium – aż o 80%. Tańsze Pentium G4400 oraz Core i3-6100 spowolniły w DirectX 12. W nowym API przyśpieszyły za to procesory AMD w postaci FX-8350 oraz FX-6350, co temu pierwszemu pozwoliło zrównać się wydajnością z Core i3-6100 przetestowanym w DirectX 11. Z kolei dwumodułowy AMD FX-4300 w trybie trybie DirectX 12 minimalnie stracił.
Testy przeprowadzone z użyciem GeForce'a GTX-a 970 wykazały ciekawą prawidłowość, bo najszybsze były w nich Core i5 i podkręcony Core i7 działające w trybie DirectX 11. Za nimi uplasowały się jednostki AMD przetestowane również w starszym API. W DirectX 12 trzy najwydajniejsze procesory osiągnęły praktycznie ten sam wynik (ok. 45 kl./s), a wśród nich były dwa układy AMD, ale wobec znacznie lepszych rezultatów w DirectX 11 nie ma to znaczenia. Wyraźnie gorzej od innych wypadł FX-4300 w trybie DirectX 12: jego wydajność po przełączeniu się ze starszego API na nowe spadła o 1/3.
GeForce GTX 960 nie pozwolił rozwinąć skrzydeł żadnemu procesorowi: najmocniejszy z nich, podkręcony Core i7-6700K, okazał się tylko o 10% szybszy od najwolniejszego układu Intela, dwuwątkowego Pentium. Najgorzej w tandemie z GTX-em radziły sobie jednostki AMD przetestowane w trybie DirectX 12.
Rise of the Tomb Raider (CPU) – Radeon R9 Fury X, R9 390, R9 380
W parze z Radeonem R9 Fury X najszybsze są Core i5 oraz Core i7 przetestowane w trybie DirectX 11. Zaraz za nimi plasują się procesory AMD przetestowane w trybie DirectX 12, które jako jedne z niewielu przyspieszyły po zmianie API.
Test konfiguracji z Radeonem R9 390 przynosi następującą sytuację: jednostki szybsze od Pentium G4400 oraz AMD FX-4300 zapewniają bardzo zbliżoną wydajność, 40–45 kl./s.
Wszystkie procesory w tandemie z Radeonem R9 380 w trybie DirectX 12 okazują się wolniejsze niż w DirectX 12.
Podsumowanie
Poniższe podsumowanie obejmuje tylko część zmagań z DirectX 12, bo wnioski dotyczą wyłącznie procesorów Intela. Układy AMD w połączeniu z tymi samymi kartami graficznymi wciąż są testowane i wyniki zaprezentujemy już niebawem. Tymczasem jednak możemy się pokusić o wstępną opinię: DirectX 12 na razie przyniósł jeden wielki chaos i trudno znaleźć jakiekolwiek prawidłowości. W jednej grze lepsze są GeForce'y, w innej Radeony, anomalie zaś, takie jak zmniejszona wydajność podzespołów w DirectX 12, są na porządku dziennym. Na każdą konfigurację trzeba spojrzeć indywidualnie i dokładnie prześledzić, jak radzi sobie w danej grze i poszczególnych trybach, a i tak nie pozwala to przewidzieć jej działania w przyszłych produkcjach.
Czytaj także: Hitman (beta) – test kart graficznych
Nowe API Microsoftu ma – według zapowiedzi osób oraz firm zaangażowanych w prace nad DirectX 12 i rozwój gier wykorzystujących ten interfejs programowania – przede wszystkim odciążyć procesor. Ze względu na te zapewnienia powoli zaczyna się wykształcać przekonanie, w tej chwili kompletnie bezpodstawne, że do gier przestanie być potrzebny szybki procesor. Faktycznie zdarzają się sytuacje, że Core i3 w trybie DirectX 12 jest szybszy od Core i5 w DirectX 11, co pokazuje, że nowy DirectX ma szansę zmniejszyć wymagania względem procesorów, ale są to pojedyncze przypadki i absolutnie nic nie mówią o zachowaniu całego spektrum gier, które dopiero się pojawią. Z całą pewnością jednak można stwierdzić, że DirectX 12 to nie jest lekarstwo na wszystko i że szybki procesor prawdopodobnie wciąż będzie nieodłącznym elementem maszyny do gier, i nie ma mowy, by szybkie karty graficzne warto było łączyć z procesorami pokroju Pentium G4400, a nawet Core i3.
Nie sposób nie odnieść wrażenia, że największe nadzieje z nowym API wiąże AMD, które liczy na to, że Microsoft oraz twórcy gier sami rozwiążą problem narzutu sterownika Radeon Crimson na procesor, tak widoczny w DirectX 11. Z przeprowadzonych przez nas testów wynika, że DirectX 12 nie jest cudownym panaceum na te bolączki: Radeon R9 390 wciąż uzyskuje wyniki niezwykle bliskie osiągów Radeona R9 Fury X. Różnica wydajności pomiędzy tymi kartami z pewnością powinna być większa od 12% w Rise of the Tomb Raider oraz Hitmanie czy 7% w Gears of War, biorąc pod uwagę różnice w możliwościach obu rdzeni.
Na razie można z dużym prawdopodobieństwem stwierdzić, że DirectX 12 nie jest magicznym lekarstwem na wszystkie problemy pecetowców, a wydajność poszczególnych podzespołów, a nawet obu wrogich obozów, w poszczególnych grach będzie w największej mierze zależeć od programistów: jedne gry będą działały szybciej na komputerach z kartą Nvidii, inne zaś – na konfiguracjach z kartą AMD, a czasem nastąpi spadek wydajności po przełączeniu się na nowsze API. Powstaje tylko pytanie, w czym ta sytuacja różni się od obecnej.
Dalsze testy różnych konfiguracji w DirectX 12 prawdopodobnie pozwolą wyciągnąć dokładniejsze wnioski, ale obecny zbiór wyników w trzech grach nie daje podstaw, by stwierdzić, że DirectX 12 zda egzamin lub nie.
Aktualizacja po testach z wykorzystaniem procesorów AMD FX (1.04.2016)
Po testach przeprowadzonych z wykorzystaniem procesorów AMD mamy kilka spostrzeżeń.
- W Gears of War (w tej grze jest dostępne tylko API DirectX 12) w konfiguracjach z procesorami Intela zawsze szybsze są karty Nvidii, natomiast w konfiguracjach z procesorami AMD zawsze szybsze są karty AMD.
- W Gears of War (przypomnijmy: udostępnia tylko API DirectX 12) w konfiguracjach z kartami graficznymi GeForce i Radeon wszystkie procesory AMD zawsze są albo wolniejsze od najwolniejszego Intela w naszym teście, dwurdzeniowego i dwuwątkowego Pentium G4400, kosztującego około 275 zł, albo – w najlepszym razie – tak samo wolne.
- Procesor AMD FX-8350 najbardziej przyspieszył (o ponad 80%) po przełączeniu API z DirectX 11 na DirectX 12 w grze Hitman, i to zarówno w konfiguracji z GTX-em 980 Ti, jak i w parze z Radeonem R9 Fury X. Mimo wszystko w obu przypadkach układ ten wyraźnie przegrywa z Core i5-6600K oraz Core i7-6700K.
- W Hitmanie w trybie DirectX 12 procesory AMD FX-6350 oraz Core i3-6100 bez względu na zastosowaną kartę graficzną osiągają bardzo zbliżone wyniki. W trybie DirectX 11 ten pojedynek zawsze wygrywa, i to ze znaczną przewagą, Core i3-6100.
- W Rise of the Tomb Raider procesor AMD FX-4300, czyli jeden z najsłabszych układów w ofercie AMD, notorycznie osiąga gorsze wyniki po przełączeniu się na DirectX 12, mimo że zmiana API powinna mu raczej pomagać. Odwrotną sytuację obserwujemy w Hitmanie, w którym FX-4300 zawsze przyśpiesza po zmianie API na DirectX 12, bez względu na zastosowaną kartę graficzną.
To tylko część najważniejszych, naszym zdaniem, spostrzeżeń po testach procesorów AMD przeprowadzonych w trzech grach z użyciem dwóch różnych API Microsoftu. Podtrzymujemy swoje twierdzenie, że na razie DirectX 12 nie przynosi rewolucji: procesory AMD nawet tam, gdzie przyśpieszają najbardziej, wciąż są wolniejsze od jednostek Intela, co oznacza, że zwyczajnie bezpieczniej jest kupić produkt „niebieskich”. Zagwarantuje on stałą, przewidywalną wydajność zarówno we wciąż pojawiających się grach wykorzystujących API DirectX 11, jak i w tych, które obsługują DirectX 12.