Jedna karta, dwie karty, miliony pikseli
O graczach pecetowych, którzy nie godzą się na kompromisy i grają w najnowsze produkcje 3D w najwyższych ustawieniach szczegółowości grafiki, można powiedzieć jedno: jeśli chodzi o jakość i płynność obrazu, na pewno dostają zauważalnie więcej, niż mogą zaoferować konsole. Trzeba jednak zdawać sobie sprawę z tego, że jest to bardzo droga rozrywka, a jej koszty rosną wraz z rozmiarem monitora, a dokładniej: rozdzielczością.
Szczególnie trudne życie mają posiadacze 27-calowych monitorów, bo duża część z nich umie już wyświetlać obraz w rozdzielczości 2560 × 1440. A to przecież tylko jedna klatka obrazu. Chcąc zachować rozsądną płynność (okolice 60 kl./s), trzeba mieć już sprzęt, który będzie mógł wygenerować około 200 mln pikseli na sekundę, a to zapewnią wyłącznie najwydajniejsze jednoprocesorowe rozwiązania AMD i Nvidii. Przejście na wyświetlacze „4K” kosztuje jeszcze więcej, i to nie tylko ze względu na ceny takich urządzeń, ale też koszt rdzeni graficznych potrzebnych do płynnego wyświetlenia obrazu o rozdzielczości 3840 × 2160 w 60 kl./s. My już sprawdziliśmy, czy pojedyncze GPU ma szansę poradzić sobie z taką rozdzielczością w najwyższych ustawieniach szczegółowości grafiki, i odpowiedź, niestety, brzmi: nie. Taka płynność w takiej rozdzielczości będzie dostępna jedynie posiadaczom systemów multi-GPU, gdyż do wygenerowania w tym przypadku jest prawie pół miliarda pikseli na sekundę.
Nvidia też już o tym wie i mimo że ma w swojej ofercie najwydajniejsze jednordzeniowe GPU na rynku (GTX 780 Ti / GTX Titan Black), postanowiła pokazać coś jeszcze mocniejszego. Rozdzielczość 4K czy konfiguracje wielomonitorowe – to były prawdopodobnie niektóre z powodów, by w zeszłym tygodniu przedstawić nowy produkt na imprezie GPU Tech Conference. GeForce GTX Titan Z, bo o nim mowa, to coś, czego się nie spodziewaliśmy. Dwa pełne rdzenie GK110 (2880 jednostek) na jednej płytce drukowanej i połączenie ich z 12 GB pamięci GDDR5 (po 6 GB na rdzeń) to z pewnością nie jest „normalna” konstrukcja, co zresztą znalazło odzwierciedlenie w sugerowanej cenie produktu, która ma wynosić, bagatela, 3 tys. dol.
Uznaliśmy, że to dobra okazja do przetestowania teoretycznej wydajności karty GeForce GTX Titan Z (za pomocą dwóch zwykłych titanów) oraz porównania jej z osiągami dwóch radeonów R9 290X w konfiguracji CrossFire zbudowanej za pomocą XDMA.
Założenia
Symulowanie parametrów modelu GeForce GTX Titan Z to dość karkołomne zadanie w polskiej rzeczywistości. Cały czas mowa bowiem o pełnych układach GK110 (2880 jednostek) i 6 GB pamięci GDDR5 na rdzeń. Tych warunków nie spełnia ani GeForce GTX 780 Ti (odpowiednia liczba jednostek, ale „tylko” 3 GB pamięci), ani też GTX Titan (jest 6 GB pamięci, ale brakuje 192 rdzeni CUDA)... Te wyśrubowane warunki spełnia tylko GeForce GTX Titan Black. I o ile jedna sztuka takiej karty nie byłaby jeszcze problemem, to zdobycie dwóch już nim było.
Postanowiliśmy pójść inną drogą: zwykłego titana podkręcić tak, żeby zrównać jego wydajność z osiągami GTX-a 780 Ti (oczywiście, mniej więcej, bo nie da się tego zrobić idealnie). Po kilkunastominutowych testach okazało się, że rdzeń Titana taktowany z częstotliwością 1045 MHz (ustawioną na sztywno) będzie tak samo wydajny w grach jak sam GeForce GTX 780 Ti. Dwa titany z naszej redakcji zostały zatem potraktowane tym samym, zmodowanym BIOS-em i połączone w SLI, co uznaliśmy za niezłą podstawę do symulacji osiągów nadchodzącego Titana Z w najlepszym możliwym scenariuszu. Jednocześnie wyniki pokazują, na jaką wydajność realnie może liczyć ktoś, kto chciałby zbudować podobny zestaw SLI składający się z dwóch kart GeForce GTX Titan.
Konstrukcję „zielonych” trzeba było jednak z czymś porównać. Powoli pojawiają się pierwsze wzmianki o dwuprocesorowym Radeonie R9 295X2. Połączenie dwóch rdzeni Hawaii XT na jednym laminacie będzie piekielnie (i to dosłownie!) trudne, ale postanowiliśmy sprawdzić, jak sprawowałby się tandem dwóch takich R9 290X. Mając na uwadze to, że przyspieszyliśmy GTX-a Titana (chociaż wyłącznie po to, aby wyrównać niedostatek w postaci mniejszej liczby jednostek niż w GTX-ie 780 Ti), podkręciliśmy również dwa egzemplarze karty Sapphire Radeon R9 290X Tri-X do wartości: rdzeń – 1100 MHz, pamięć – 1450 MHz.
Przetestowaliśmy dziewięć gier w dwóch rozdzielczościach: 2560 × 1440 oraz 3840 × 2160, ale w tym miejscu jesteśmy winni wyjaśnienie. Testy metodą FCAT zostały wykonane wyłącznie w pierwszej rozdzielczości, napotkaliśmy bowiem problemy podczas prób w 4K z użyciem jedynego dostępnego w ostatnim czasie w redakcji monitora tego typu, a przez to testy w Ultra HD zostały wykonane za pomocą Frapsa. Gotowi na pojedynek na szczycie? ;)
Platforma testowa
Testy wydajności kart graficznych i procesorów zostały wykonane przy użyciu techniki FCAT.
Platforma do pomiarów wydajności kart graficznych składała się z następujących podzespołów:
Sprzęt | Dostawca | |
---|---|---|
Procesor | Core i7-4770K @ 4,5 GHz | |
Płyta główna | MSI Z87-GD65 Gaming | pl.msi.com |
Monitor | Dell UP2414Q (24 cale, 3840 × 2160) | www1.euro.dell.com |
Sprzęt do porównania | karty graficzne | |
Miernik natężenia dźwięku | Sonopan SON-50 | www.sonopan.com.pl |
Pamięć | Corsair Vengeance DDR3-1866 2 × 4 GB@1866 MHz 9-10-9-27 2T | www.corsair.com |
Nośnik systemowy | Plextor M3 Pro 256 GB | www.plextor-digital.com |
Nośnik dodatkowy | Seagate Barracuda Desktop 4 TB | www.seagate.com |
Schładzacz procesora | Zalman CNPS 11X Extreme | www.zalman.com |
Zasilacz | Corsair AX1200 1200 W | www.corsair.com |
Obudowa | Aerocool Strike-X ST | aerocool.com.pl |
Backup danych | Acronis True Image 2014 | www.acronis.pl |
System operacyjny:
- Windows 8.1 64-bitowy.
Sterowniki:
- AMD Catalyst 14.3 beta v1.0,
- Nvidia GeForce 335.23 WHQL.
Testy – Assassin's Creed IV Black Flag, Battlefield 4
Assassin's Creed IV Black Flag – milisekundy
Assassin's Creed IV Black Flag – klatki na sekundę
Assassin's Creed IV Black Flag – wykres procentowy
Assassin's Creed IV Black Flag – średnia wydajność
Battlefield 4 – milisekundy
Battlefield 4 – klatki na sekundę
Battlefield 4 – wykres procentowy
Battlefield 4 – średnia wydajność
Testy – Crysis 3, Far Cry 3
Crysis 3 – milisekundy
Crysis 3 – klatki na sekundę
Crysis 3 – wykres procentowy
Crysis 3 – średnia wydajność
Far Cry 3 – milisekundy
Far Cry 3 – klatki na sekundę
Far Cry 3 – wykres procentowy
Far Cry 3 – średnia wydajność
Testy – Max Payne 3, Metro Last Light
Max Payne 3 – milisekundy
Max Payne 3 – klatki na sekundę
Max Payne 3 – wykres procentowy
Max Payne 3 – średnia wydajność
Metro Last Light – milisekundy
Metro Last Light – klatki na sekundę
Metro Last Light – wykres procentowy
Metro Last Light – średnia wydajność
Testy – Tomb Raider, Total War: Rome II
Tomb Raider – milisekundy
Tomb Raider – klatki na sekundę
Tomb Raider – wykres procentowy
Tomb Raider – średnia wydajność
Total War: Rome II – milisekundy
Total War: Rome II – klatki na sekundę
Total War: Rome II – wykres procentowy
Total War: Rome II – średnia wydajność
Testy – The Witcher 2: Assassins of Kings
The Witcher 2: Assassins of Kings – milisekundy
The Witcher 2: Assassins of Kings – klatki na sekundę
The Witcher 2: Assassins of Kings – wykres procentowy
The Witcher 2: Assassins of Kings – średnia wydajność
Benchmarki – 3DMark
Benchmarki – Unigine: Heaven 4.0, Unigine: Valley 1.0
Pobór energii
Test poboru energii wykonujemy z użyciem gry Far Cry 3 w maksymalnych ustawieniach szczegółowości obrazu. To z pewnością najbardziej typowa sytuacja dla większości graczy. Far Cry 3 jest nową, bardzo wymagającą grą, która umie wycisnąć siódme poty z najmocniejszych kart.
Należy mieć na względzie, że przedstawione konfiguracje zostały podkręcone, a nawet mają zmodyfikowane BIOS-y. To oznacza, że wyniki pomiarów zużycia energii różnią się od tych, które przedstawiliśmy we wcześniejszych artykułach.
Przy dwóch czołowych kartach graficznych pracujących w tandemie, i to na podkręconej platformie testowej, zasilacz nie ma łatwo. Cała platforma pobierała z gniazdka 650–700 W i dla niektórych może to być dyskwalifikujące, ale nieco wyższymi rachunkami za prąd (konkretnie: około 50 zł miesięcznie za granie każdego dnia średnio przez 4 godziny) na pewno nie przejmie się ktoś, kto wydał co najmniej 7–8 tys. zł na samą jednostkę centralną.
Wtedy problemem staje się już tylko dodatkowe źródło ciepła latem ;)
Podsumowanie
Jedno jest pewne: „entuzjaści” (ci zamożniejsi) mają zapewnioną rozrywkę na najwyższym poziomie. Battlefield 4 w 100 kl./s w rozdzielczości WQHD? Proszę bardzo. Do pary przydałby się tylko 120-hercowy monitor, który na tle ceny całego zestawu zapewniającego taką wydajność wcale nie wydaje się taki drogi.
A jeśli WQHD to mało i ktoś ma chrapkę na 4K... Pojedyncza najszybsza karta graficzna zapewni około 30 kl./s w wysokich (ale nie najwyższych) ustawieniach bez wygładzania krawędzi, bo naszym zdaniem posiadacze 24- lub 32-calowych monitorów 4K spokojnie mogą z niego zrezygnować. Jeśli jakieś ząbki na krawędziach się pojawią, to na pewno nie da się ich dostrzec w szybkiej grze. Dopiero dwa GPU połączone w CrossFire lub SLI zapewnią satysfakcjonującą płynność rozgrywki w okolicach 60 kl./s.
Najszybsze układy graficzne, procesory czy wreszcie monitory o bardzo wysokiej rozdzielczości to spory wydatek. Pomijając już kwestię prądu, łatwo policzyć, że życie pecetowego „entuzjasty” nie jest łatwe, bo choć dostaje on jakość grafiki pod każdym względem nieporównywalnie lepszą, niż mogą zapewnić konsole, to aby spełnić swoje marzenie, będzie musiał wyłożyć kwotę, która jest wielokrotnością ceny konsoli. Na pewno znajdą się takie osoby, ale to marginalny wycinek rynku. Niemniej zazdrościmy, bo sami zasmakowaliśmy mocy najwydajniejszego sprzętu do gier już nie raz. Teraz pozostaje nam już tylko oczekiwanie na prawdziwe dwugłowe potwory w postaci kart GeForce GTX Titan Z oraz Radeon R9 295X2.
Radeony z serii Hawaii a CrossFire
Z przyjemnością przetestowaliśmy przy okazji także nowe Radeony R9 290X w tandemie CrossFire, które do komunikacji między sobą wykorzystują złącze PCI Express, a nie zewnętrzny mostek, jak wszystkie inne Radeony na rynku.
CrossFire na kartach graficznych z serii Radeon R9 290X (korzystających z techniki XDMA) to coś zupełnie innego niż rozwiązania stosowane w starszych kartach (obecnie mowa o wszystkich układach słabszych od R9 290). W końcu CrossFire naprawdę działa, a sprzęt wykorzystujący XDMA i zaprojektowany z myślą o Frame Pacingu (tak jak w przypadku kart „zielonych”) spełnia swoje zadanie znakomicie. Spokojnie można powiedzieć, że płynność obrazu, jaką zapewniają dwa radeony z rdzeniami Hawaii XT, dorównuje (poza małymi wyjątkami) osiągom kart z serii GeForce. Szkoda jednak, że takie zachowanie zaobserwowaliśmy tylko po użyciu czołowych produktów AMD (XDMA mają tylko Radeony R9 290 oraz 290X), podczas gdy reszta towarzystwa została zaopatrzona tylko w programową protezę (Frame Pacing), która nie działa jak należy...
Tak czy inaczej, kolejna rodzina kart graficznych AMD powinna przynieść poprawę działania CrossFire już we wszystkich segmentach. Nie przesądzając jednak sprawy, zapewniamy, że to sprawdzimy ;)
Wydajność
Na koniec wykres przedstawiający średnie osiągi wszystkich konfiguracji w grach. Nietrudno zauważyć, że skalowanie wydajności obu technik (SLI oraz CrossFire) jest całkiem niezłe, ale nie można powiedzieć, że bliskie 100% :)
* ze średniej wydajności 4K odliczyliśmy wynik z gry Wiedźmin 2 ze względu na nieprawdopodobne skalowanie zmierzone Frapsem.
Dwie karty GeForce GTX Titan dostarczyła firma: