artykuły

GeForce GTX Titan SLI kontra Radeon R9 290X CrossFire – test najwydajniejszych rozwiązań na rynku

GeForce GTX Titan Z i 220 mln pikseli na sekundę?

55
1 kwietnia 2014, 20:15 Łukasz Marek

Granie w najnowsze produkcje w najwyższych ustawieniach na komputerze to droga rozrywka. Na domiar złego im większy (a więc o większej rozdzielczości) monitor, tym więcej trzeba wydać na odpowiedni sprzęt. Zmiana monitora Full HD na taki, który ma 2560 pikseli w poziomie, wymaga już jednej z najszybszych kart graficznych, a następny krok w stronę większej szczegółowości obrazu, czyli ekrany 4K, to wyzwanie nawet dla dwóch kart pracujących nad jednym obrazem. Właśnie dlatego w świetle ostatnich informacji o modelu GeForce GTX Titan Z postanowiliśmy przetestować dwie najmocniejsze konfiguracje na rynku: GeForce GTX Titan w SLI oraz Radeon R9 290X w CrossFire!

Spis treści

Jedna karta, dwie karty, miliony pikseli

O graczach pecetowych, którzy nie godzą się na kompromisy i grają w najnowsze produkcje 3D w najwyższych ustawieniach szczegółowości grafiki, można powiedzieć jedno: jeśli chodzi o jakość i płynność obrazu, na pewno dostają zauważalnie więcej, niż mogą zaoferować konsole. Trzeba jednak zdawać sobie sprawę z tego, że jest to bardzo droga rozrywka, a jej koszty rosną wraz z rozmiarem monitora, a dokładniej: rozdzielczością.

Szczególnie trudne życie mają posiadacze 27-calowych monitorów, bo duża część z nich umie już wyświetlać obraz w rozdzielczości 2560 × 1440. A to przecież tylko jedna klatka obrazu. Chcąc zachować rozsądną płynność (okolice 60 kl./s), trzeba mieć już sprzęt, który będzie mógł wygenerować około 200 mln pikseli na sekundę, a to zapewnią wyłącznie najwydajniejsze jednoprocesorowe rozwiązania AMD i Nvidii. Przejście na wyświetlacze „4K” kosztuje jeszcze więcej, i to nie tylko ze względu na ceny takich urządzeń, ale też koszt rdzeni graficznych potrzebnych do płynnego wyświetlenia obrazu o rozdzielczości 3840 × 2160 w 60 kl./s. My już sprawdziliśmy, czy pojedyncze GPU ma szansę poradzić sobie z taką rozdzielczością w najwyższych ustawieniach szczegółowości grafiki, i odpowiedź, niestety, brzmi: nie. Taka płynność w takiej rozdzielczości będzie dostępna jedynie posiadaczom systemów multi-GPU, gdyż do wygenerowania w tym przypadku jest prawie pół miliarda pikseli na sekundę.

Nvidia też już o tym wie i mimo że ma w swojej ofercie najwydajniejsze jednordzeniowe GPU na rynku (GTX 780 Ti / GTX Titan Black), postanowiła pokazać coś jeszcze mocniejszego. Rozdzielczość 4K czy konfiguracje wielomonitorowe – to były prawdopodobnie niektóre z powodów, by w zeszłym tygodniu przedstawić nowy produkt na imprezie GPU Tech Conference. GeForce GTX Titan Z, bo o nim mowa, to coś, czego się nie spodziewaliśmy. Dwa pełne rdzenie GK110 (2880 jednostek) na jednej płytce drukowanej i połączenie ich z 12 GB pamięci GDDR5 (po 6 GB na rdzeń) to z pewnością nie jest „normalna” konstrukcja, co zresztą znalazło odzwierciedlenie w sugerowanej cenie produktu, która ma wynosić, bagatela, 3 tys. dol. 

Uznaliśmy, że to dobra okazja do przetestowania teoretycznej wydajności karty GeForce GTX Titan Z (za pomocą dwóch zwykłych titanów) oraz porównania jej z osiągami dwóch radeonów R9 290X w konfiguracji CrossFire zbudowanej za pomocą XDMA.

Założenia

Symulowanie parametrów modelu GeForce GTX Titan Z to dość karkołomne zadanie w polskiej rzeczywistości. Cały czas mowa bowiem o pełnych układach GK110 (2880 jednostek) i 6 GB pamięci GDDR5 na rdzeń. Tych warunków nie spełnia ani GeForce GTX 780 Ti (odpowiednia liczba jednostek, ale „tylko” 3 GB pamięci), ani też GTX Titan (jest 6 GB pamięci, ale brakuje 192 rdzeni CUDA)... Te wyśrubowane warunki spełnia tylko GeForce GTX Titan Black. I o ile jedna sztuka takiej karty nie byłaby jeszcze problemem, to zdobycie dwóch już nim było. 

Postanowiliśmy pójść inną drogą: zwykłego titana podkręcić tak, żeby zrównać jego wydajność z osiągami GTX-a 780 Ti (oczywiście, mniej więcej, bo nie da się tego zrobić idealnie). Po kilkunastominutowych testach okazało się, że rdzeń Titana taktowany z częstotliwością 1045 MHz (ustawioną na sztywno) będzie tak samo wydajny w grach jak sam GeForce GTX 780 Ti. Dwa titany z naszej redakcji zostały zatem potraktowane tym samym, zmodowanym BIOS-em i połączone w SLI, co uznaliśmy za niezłą podstawę do symulacji osiągów nadchodzącego Titana Z w najlepszym możliwym scenariuszu. Jednocześnie wyniki pokazują, na jaką wydajność realnie może liczyć ktoś, kto chciałby zbudować podobny zestaw SLI składający się z dwóch kart GeForce GTX Titan.

Konstrukcję „zielonych” trzeba było jednak z czymś porównać. Powoli pojawiają się pierwsze wzmianki o dwuprocesorowym Radeonie R9 295X2. Połączenie dwóch rdzeni Hawaii XT na jednym laminacie będzie piekielnie (i to dosłownie!) trudne, ale postanowiliśmy sprawdzić, jak sprawowałby się tandem dwóch takich R9 290X. Mając na uwadze to, że przyspieszyliśmy GTX-a Titana (chociaż wyłącznie po to, aby wyrównać niedostatek w postaci mniejszej liczby jednostek niż w GTX-ie 780 Ti), podkręciliśmy również dwa egzemplarze karty Sapphire Radeon R9 290X Tri-X do wartości: rdzeń – 1100 MHz, pamięć – 1450 MHz.

Przetestowaliśmy dziewięć gier w dwóch rozdzielczościach: 2560 × 1440 oraz 3840 × 2160, ale w tym miejscu jesteśmy winni wyjaśnienie. Testy metodą FCAT zostały wykonane wyłącznie w pierwszej rozdzielczości, napotkaliśmy bowiem problemy podczas prób w 4K z użyciem jedynego dostępnego w ostatnim czasie w redakcji monitora tego typu, a przez to testy w Ultra HD zostały wykonane za pomocą Frapsa. Gotowi na pojedynek na szczycie? ;)

Strona:
ProVisZobacz profil
Poziom ostrzeżenia: 0%
ProVis2014.04.01, 20:21
14#1
Lepiej późno niż wcale ;) Dzięki.
Indy.Zobacz profil
Poziom ostrzeżenia: 0%
Indy.2014.04.01, 20:24
12#2
Myślałem, że zrobiliście test GeForce GTX Titan Z SLI
SebZMCZobacz profil
Poziom ostrzeżenia: 0%
SebZMC2014.04.01, 20:34
-20#3
Ta stabilność fps w układach AMD..
HDR'oZobacz profil
Poziom ostrzeżenia: 0%
HDR'o2014.04.01, 20:38
-15#4
Powiem to co ostatnio: 2x 780 po OC zrównują z Titanem Z a kosztują .... 7000 zł taniej. Co prawda to nieoficjalne ceny (czekam na ich potwierdzenie w sklepach w PL), ale jakoś mam przeczucie, że nie będą się raczej różnić i tak czy inaczej 2x 780 będzie duuużo lepszą propozycją. Przy okazji - co z testem OC i czy będą porównania do np 2x 780tkach stock i OC? Rozumiem, że to test na żywo i zostanie dodane przynajmniej OC :> :P
Przy okazji przyznam się do czegoś - pierwszy raz zauważyłem w grzę mikroprzycinkę na swoich 670tkach i lepiej w tej grze wyłączyć SLI. Tą grą jest ... Bioshock Infinity, co jest trochę dziwne bo zrobili stery do 3D w tej grze (Rating Excelent), a nie zrobili wsparcia SLI.
CortexM3Zobacz profil
Poziom ostrzeżenia: 0%
CortexM32014.04.01, 20:48
-15#5
Ciekawe kiedy producenci monitorów wpadną na pomysł, jak tanio zrobić matrycę 4K, z FHD i tak ja też sprzedawać ?
Sztuczka znana od lat i stosowana powszechnie w telebimach wystarczy przebudować pojedynczy Pixel ekranu, i między dwiema sąsiednimi magicznie pojawi się nam 3. Fizycznie nie trzeba robić wtedy 4K pixeli, a ilość subpixeli rośnie tylko o 25%.
Ta metoda też ma zaletę. Rośnie nam gęstość optyczna, bez potrzeby zmniejszania rozmiaru Pixela, a odpowiednie algorytmy obróbki obrazu potrafią skutecznie zwiększyć wrażenie szczegółowości obrazu.
A to nie jest oszukane 4K bo 1920x2-1 = 3 839Pix, więc taki ekran będzie w stanie wyświetlić obraz 4K, tylko będzie tańszy i prostszy w budowie.
Tak coś czuje że jak pojawią się tanie monitory 4K to właśnie będą bazowały na tej sztuce.
AssassinZobacz profil
Poziom ostrzeżenia: 0%
Assassin2014.04.01, 20:55
10#6
Brawo dla AMD za odrobienie pracy domowej. Mam nadzieję, ze w kolejnej generacji sprzętowe rozwiązanie CF stanie się standardem dla kart ze wszystkich segmentów.
Jasiek_31Zobacz profil
Poziom ostrzeżenia: 0%
Jasiek_312014.04.01, 20:58
15#7
CortexM3 @ 2014.04.01 20:48  Post: 736881
Ciekawe kiedy producenci monitorów wpadną na pomysł, jak tanio zrobić matrycę 4K, z FHD i tak ja też sprzedawać ?
Sztuczka znana od lat i stosowana powszechnie w telebimach wystarczy przebudować pojedynczy Pixel ekranu, i między dwiema sąsiednimi magicznie pojawi się nam 3. Fizycznie nie trzeba robić wtedy 4K pixeli, a ilość subpixeli rośnie tylko o 25%.
Ta metoda też ma zaletę. Rośnie nam gęstość optyczna, bez potrzeby zmniejszania rozmiaru Pixela, a odpowiednie algorytmy obróbki obrazu potrafią skutecznie zwiększyć wrażenie szczegółowości obrazu.


Kolega chyba sam nie wie o czym pisze ale tak gwoli ścisłości to podobne rozwiązanie właśnie reklamuje Sharp w swoich nowych TV i z pierwszych doniesień wygląda to biednie.
CortexM3Zobacz profil
Poziom ostrzeżenia: 0%
CortexM32014.04.01, 21:06
Jasiek_31 @ 2014.04.01 20:58  Post: 736886


Kolega chyba sam nie wie o czym pisze ale tak gwoli ścisłości to podobne rozwiązanie właśnie reklamuje Sharp w swoich nowych TV i z pierwszych doniesień wygląda to biednie.

SHARP stosuje inne rozwiązanie, podobieństwo jest takie, że też są 4 subpixele, ale oni mają system RGBY czyli Czerwony, Zielony, niebieski, Żółty, tutaj fizycznie masz 3 'pasożytniczy' pixel, dzięki któremu fizycznie zwiększasz gęstość optyczna obrazu, czego u SHARPHA nie ma, oni tylko rozszerzyli przestrzeń barwną bo z sygnału 4K wydobywają tylko dodatkowe informacje o kolorach i przejściach między nimi.
Chętnie bym obejrzał w sklepie taki TV SHARPHa, w akcji. Trzeba jednak pamiętać że ich system nie sprawdzi się dla sygnału FHD, tylko daje widoczny zysk, kiedy na taki TV podamy sygnał 4K.
Inaczej mówiąc technika SHARPHa to taka przejściówka między FHD a 4K, która pozwoli na TV FHD cieszyć się ostrością barw z 4K.
Natomiast rozwiązanie które ja pokazałem, ma w tej dziedzinie większy potencjał, i jest świetne jak by ktoś chciał produkować np. 23' tanie monitory 4K Redy takie coś jak HDRedy.
fajny RafałekZobacz profil
Poziom ostrzeżenia: 0%
fajny Rafałek2014.04.01, 21:15
780Ti SLI by się przydało jeszcze
zakiusZobacz profil
Poziom ostrzeżenia: 0%
zakius2014.04.01, 21:22
-10#10
A jak ktoś pójdzie na całość i wsadzi cztery Zetki? 144FPS@4K i lecimy!
Zaloguj się, by móc komentować
1