2012–2015 – najwydajniejsze karty graficzne pod lupą
Rok 2012. Gdy na oczach całego świata rozgrywane były w Polsce i na Ukrainie mistrzostwa Europy w piłce nożnej, między innymi na naszym Stadionie Narodowym w Warszawie, wybudowanym za 2 mld zł, „entuzjaści” komputerowi z całego świata, aby bawić się znacznie dłużej, musieli wydać znacznie mniej ;) Nieco ponad 2000 zł – tyle w połowie tamtego roku kosztowały dwie najwydajniejsze, ostro rywalizujące ze sobą karty graficzne AMD i Nvidii. Zwolennicy tej pierwszej firmy w pogoni za najwyższą wydajnością mogli wybrać Radeona HD 7970 GHz, a ten, kto chciał mieć najwydajniejszego GeForce'a, musiał kupić model GTX 680.
Dokąd zmierzasz, entuzjasto?
Założyliśmy, że rozpoczniemy właśnie od tego momentu. Na tapetę bierzemy komputerowego zapaleńca, który zawsze stara się osiągnąć najwyższą wydajność graficzną.
Dzięki temu może on uruchamiać wszystkie najnowsze gry pecetowe w rozsądnej rozdzielczości (czyli przynajmniej Full HD) i wysokich ustawieniach jakości obrazu. Bez konsolowych kompromisów, takich jak kiepskiej jakości tekstury czy rozdzielczość 720p (1280 × 720) albo 900p (często oglądana przez posiadaczy nowych konsol).
Ścieżek zwiększania wydajności graficznej dostępnych tytułowemu entuzjaście w ostatnich 3 latach było wiele, ale postaraliśmy się ocenić je wszystkie. Przeanalizowaliśmy wszystkie nowości na rynku dużych układów graficznych i wzięliśmy pod uwagę możliwie wiarygodne wskaźniki: średnią cenę produktu w danym okresie i wydajność na tle osiągów rywali. Ten pierwszy sprawdzaliśmy w historii cen w porównywarkach, takich jak Skąpiec.pl. To właśnie w takich miejscach najwygodniej sprawdzić obecne oraz archiwalne ceny sprzętu komputerowego. Średnią wydajność wyliczaliśmy na podstawie własnych testów kart graficznych: uważamy, że w ostatnich 3 latach nie zabrakło na naszych łamach testów wydajności w żadnej grze istotnej z punktu widzenia entuzjasty. Niezmiennie monitorujemy rynek i jeśli trafiła się w gra, w której liczba klatek na sekundę ma znaczenie i która miała szansę zdobyć dużą popularność, na pewno mamy takie wyniki ;)
Uwzględnialiśmy też możliwość odsprzedania wcześniej używanej karty po kupieniu nowej. Wykorzystaliśmy w tym celu zakończone transakcją aukcje w witrynach aukcyjnych – również z tych danych wyliczaliśmy średnią kwotę.
Oto przykład. Radeon R9 280X obecnie kosztuje w sklepach 1050 zł. Oczywiście, mowa o nowym niereferencyjnym modelu z pełną, 36-miesięczną gwarancją. Wystarczy jednak sprawdzić, za ile sprzedają się używane karty z tym samym układem graficznym. Realna wartość takiego Radeona R9 280X to 500–600 zł, a więc tylko nieco ponad 50 proc. ceny sklepowej. I nie ma w tym nic dziwnego: Radeon, który wciąż leży i czeka na właściciela na półce w sklepie, ma nad używaną kartą kilka przewag: jest nowy, a więc nie był przesadnie podkręcany i nie wydobywał bitcoinów, a także wciąż ma pełną, 36-miesięczną gwarancję. Po prostu ludzie nie są gotowi płacić więcej za używaną elektronikę.
Jeśli jakiegoś układu nie udało się ocenić powyższym sposobem, podchodziliśmy do sprawy zdroworozsądkowo. Przykład: GeForce GTX 680 kupiony zaraz po tym, jak trafił na rynek (w marcu 2012 roku), za mniej więcej 2200 zł. Jeśli ktoś chciał tę kartę odsprzedać w maju 2013 roku, musiał wziąć pod uwagę to, że nowy GeForce GTX 680 kosztował wtedy już „tylko” 1700–1800 zł, a przy tym miał te same przewagi nad używanym co w przypadku Radeonów. Używanemu GTX-owi 680 kupionemu w marcu 2012 roku ubył do maja następnego grubo ponad rok gwarancji, a tak naprawdę nigdy nie wiadomo, na jaki egzemplarz się trafi. Są osoby, które w ogóle nie kupują używanej elektroniki, a są tacy, którzy nie mają co do tego obiekcji, o ile tylko cena jest odpowiednio atrakcyjna. Przeprowadziliśmy wśród członków redakcji małą ankietę na temat zakupu takiego używanego GTX-a 680 i wspólnie doszliśmy do wniosku, że maksymalnie moglibyśmy za taką kartę zapłacić około 1000 zł.
Wiele możliwości
Rozpisaliśmy kilkanaście możliwości, z jakich mógł skorzystać nasz hipotetyczny entuzjasta w ciągu ostatnich 3 lat. Trzymaliśmy się przy tym w miarę prawdopodobnych scenariuszy. Z góry odrzuciliśmy bezsensowne zmiany, choć wiadomo, że część osób mimo wszystko je przeprowadzała: czasem z niewiedzy, a czasem po prostu z chęci pobawienia się nowym sprzętem. Przykładowo przesiadka z GTX-a 680 na R9 290X, a później na GTX-a 980 miała sens, ale już z GTX-a 680 na GTX-a 780, a następnie na R9 290 była po prostu bezcelowa i ekonomicznie nieuzasadniona.
Ankieta na forum, czyli preferencje PCLabowiczów
W międzyczasie, w trakcie przygotowywania artykułu, udostępniliśmy na forum kierowaną do entuzjastów ankietę, w której głosowali (ze względu na ograniczoną liczbę odpowiedzi) praktycznie sami power users, którzy to nie godzą się na zbyt wielkie kompromisy w dziedzinie wydajności.
Oto odpowiedzi:
- GTX 680 / HD 7970 GHz -> GTX Titan – 6,78%
- GTX 680 / HD 7970 GHz -> GTX 780 – 9,32%
- GTX 680 / HD 7970 GHz -> GTX 780 -> GTX 780 Ti – 2,54%
- GTX 680 / HD 7970 GHz -> GTX 780 -> GTX 970 – 20,34%
- GTX 680 / HD 7970 GHz -> GTX 780 -> GTX 980 – 9,32%
- GTX 680 / HD 7970 GHz -> GTX 780 -> GTX 780 Ti -> GTX 980 – 3,39%
- GTX 680 / HD 7970 GHz -> R9 290 – 14,41%
- GTX 680 / HD 7970 GHz -> R9 290 -> GTX 970 – 12,71%
- GTX 680 / HD 7970 GHz -> R9 290X – 6,78%
- GTX 680 / HD 7970 GHz -> R9 290X -> GTX 980 – 1,69%
- GTX 680 / HD 7970 GHz -> GTX 780 Ti – 6,78%
- GTX 680 / HD 7970 GHz -> GTX 780 Ti -> GTX 980 – 5,93%.
Najpopularniejszą ścieżkę wymiany kart graficznych obrali ci, którzy najpierw z GTX-a 680 lub Radeona HD 7970 GHz przesiedli się na GTX-a 780, a później siedemsetosiemdziesiątkę zamienili na Maxwella – GTX-a 970.
Drugie miejsce zajęła odpowiedź, którą wybierali posiadacze Radeona R9 290. Aż 14% osób biorących udział w ankiecie kupiło właśnie dwieściedziewięćdziesiątkę (bez iksa w nazwie) i korzysta z niej do dziś.
Trzecią najczęściej wybieraną była odpowiedź nr 7 – prawie 13% głosów. Tyle osób biorących udział w ankiecie kupiło Radeona R9 290, ale na fali uznania dla Maxwella postanowiło zmienić tę kartę na wydajniejszego GTX-a 970.
Najrzadszy był scenariusz, który zakładał wymianę GTX-a 680 / HD 7970 GHz na Radeona R9 290X i późniejszą modernizację komputera polegającą na wymianie czołowego Radeona na najszybszego Maxwella, GTX-a 980.
Marzec 2012: GeForce GTX 680
W marcu 2012 roku pojawił się pierwszy – i od razu najwydajniejszy – GeForce GTX serii 600. Model GeForce GTX 680 został zbudowany w nowej architekturze Kepler. Inżynierowie Nvidii po dużej porażce, jaką był bardzo gorący i głośny GeForce GTX 480 (Fermi), i jedynie małych poprawkach w GTX-ie 580 (również Fermi) w końcu mogli mówić o sukcesie. Sprawność energetyczna dużego Keplera była wówczas zadowalająca. GeForce GTX 680 był zresztą tak naprawdę projektowany jako rywal dla wprowadzonego kwartał wcześniej Radeona HD 7970. Radeon odebrał GTX-owi 580 koronę najwydajniejszej jednoukładowej karty graficznej i to właśnie Kepler miał sprawić, aby wróciła do firmy z Santa Clara.
GeForce GTX 680 korzystał z wykonanego w procesie technologicznym 28 nm układu GK104 o 1536 procesorach strumieniowych, 32 ROP-ach i 128 jednostkach teksturujących (TMU). Towarzyszyły im 2 GB pamięci GDDR5 na 256-bitowej szynie. Pamięć ta była taktowana z częstotliwością 1502 MHz, co sprawiło, że jej przepustowość sięgała 180 GB/s. Powierzchnia rdzenia wynosiła około 295 mm2 i na tej przestrzeni zmieszczono 3,5 mld tranzystorów. Bazową częstotliwość taktowania rdzenia w GTX-ie 680 ustalono na 1006 MHz, ale dzięki technice GPU Boost (po raz pierwszy wprowadzonej w GeForce'ach) taktowanie mogło się zmieniać dynamicznie w zależności od obciążenia. W efekcie w grach GeForce GTX 680 osiągał nawet 1100 MHz. Niereferencyjne modele GTX-ów 680 miały taktowanie bazowe szybsze o mniej więcej 100 MHz i w trybie GPU Boost przyspieszały proporcjonalnie: do około 1150–1200 MHz.
GeForce GTX 680 spełnił pokładane w nim nadzieje. Nvidia zmniejszyła energochłonność układu i poprawiła jego kulturę działania (głośność, temperaturę) względem architektury Fermi, a przy tym wzrosła wydajność. W rezultacie GeForce GTX 680 wygrał rywalizację o koronę wydajności z Radeonem HD 7970, ale jego zwycięstwo było mało przekonujące, bo przewaga w porywach sięgała 5–10%.
Nvidia, która tradycyjnie sporo żąda za swoje najwydajniejsze GPU, tym razem musiała dopasować cenę do oferty konkurencji, głównie ze względu na niewielką przewagę wydajności i spóźnione wejście na rynek. Ostatecznie cenę karty GeForce GTX 680 ustalono na 2200 zł i było to rozsądne maksimum w tamtym momencie, gdyż Radeony HD 7970 kosztowały 2050–2100 zł.
Czerwiec 2012: Radeon HD 7970 GHz
AMD w swojej nowej serii, HD 7000, podobnie jak Nvidia zmieniło architekturę, z VLIW5 i VLIW4 (stosowanych poprzednio w kartach serii HD 5000 oraz HD 6000) na Graphics Core Next, i również zmniejszyło energochłonność. Firma uzasadniała zmianę architektury tym, że VLIV była trudniejsza w programowaniu i trzeba było wprowadzać spore optymalizacje, aby część jednostek układu graficznego nie leżała odłogiem. Tak powstała właśnie Graphics Core Next, z której jako pierwszy, w grudniu 2011 roku, skorzystał Radeon HD 7970. Ten ostatni został, jak już wspomnieliśmy, wyprzedzony przez GTX-a 680, więc AMD postanowiło odświeżyć swoją konstrukcję pół roku po tym, jak na rynek trafił HD 7970, i trzy miesiące po wprowadzeniu GTX-a 680.
Sam układ graficzny w HD 7970 GHz nie zmienił się w porównaniu z zastosowanym w HD 7970: wciąż był to Tahiti XT, ale tym razem roboczo nazwany Tahiti XT2. Graphics Core Next też był produkowany w procesie technologicznym 28 nm, miał powierzchnię 365 mm2, 4,3 mld tranzystorów, 2048 procesorów strumieniowych, 32 ROP-ów i 128 jednostek teksturujących. AMD postanowiło za to wyprzedzić Nvidię pod względem ilości pamięci na karcie, bo rdzeń HD 7970 GHz miał jej do dyspozycji 3 GB, a dostęp do niej zapewniała 384-bitowa szyny danych, co zaowocowało przepustowością rzędu 270 GB/s.
W samym układzie dla użytkownika końcowego istotne są dwie zmiany: lepsze poznanie procesu 28 nm pozwoliło przyspieszyć taktowanie nowej wersji HD 7970. GHz Edition, jak sama nazwa wskazuje, startował z pułapu 1000 MHz, ale AMD, tak jak wcześniej Nvidia, zastosowało tryb Boost. Radeon HD 7970 GHz mógł przyspieszać swój rdzeń do 1050 MHz w zależności od potrzeb, a więc o 5%. W praktyce gwarantowana częstotliwość taktowania rdzenia oscylowała na poziomie 1035–1040 MHz. W istocie nowy Radeon HD 7970 GHz wyraźnie przegonił swojego poprzednika (HD 7970), bo tamten miał stałe taktowanie rdzenia na poziomie 925 MHz.
Nieco ponad 10-procentowa przewaga w taktowaniu rdzenia przełożyła się praktycznie liniowo na wydajność: Radeon HD 7970 GHz wyprzedził model GeForce GTX 680 o mniej więcej 5% i AMD znowu miało w ofercie najwydajniejszą kartę graficzną. W czerwcu 2012 roku, czyli 3 miesiące po tym, jak na rynek trafił Kepler, AMD musiało się dopasować do obniżki cen tego ostatniego. GTX 680, odkąd się pojawił, staniał do 2050 zł i AMD wyceniło swoją konstrukcję na tę samą kwotę.
Ze względu na wysyp nowych i wydajnych kart graficznych w 2013 roku byliśmy zmuszeni podzielić ten okres na pierwszą i drugą połowę.
Luty 2013 roku: GeForce GTX Titan
GeForce GTX 680 zapewnił Nvidii pierwsze miejsce na wykresach wydajności, ale jak pisaliśmy, nie było to zwycięstwo bardzo przekonujące, a najlepszym dowodem jest to, że wprowadzony 3 miesiące później Radeon HD 7970 GHz pokonał dużego Keplera w grach o kilka procent. Obie karty wciąż rywalizowały o uznanie kupujących, ale Nvidia już od października 2012 roku miała w swojej ofercie produkt, który miał wygrać bezdyskusyjnie na każdym polu i zakończyć na dłuższy czas walkę o tytuł najwydajniejszego układu graficznego. GK110, który miał zapewnić tę monstrualną wydajność, był wcześniej stosowany w profesjonalnych kartach z serii Tesla K20X i to właśnie tam zarabiał dla Nvidii grube pieniądze. Kilka miesięcy później, w lutym 2013 roku, pojawił się wreszcie w postaci karty dla graczy.
Wspomniany układ GK110 to największy rdzeń graficzny w dziejach firmy: zajmował powierzchnię 550 mm2, na której znajdowało się ponad 7 mld tranzystorów. Największy Kepler na papierze wyglądał równie monstrualnie jak w rzeczywistości: 2688 procesorów strumieniowych, 48 ROP-ów i 224 jednostki teksturujące. Liczby w porównaniu z GTX-em 680 mówiły same za siebie. Jakby tego było mało, Nvidia postawiła wszystko na jedną kartę i do swojej czołowej karty włożyła aż 6 GB pamięci z 384-bitowym interfejsem, trzy razy więcej, niż miał GTX 680, i dwa razy więcej, niż dostał od AMD Radeon HD 7970 GHz. Przy tak dużej liczbie jednostek Nvidia dość konserwatywnie podeszła do częstotliwości taktowania, gdyż bazowa częstotliwość w GTX-ie Titanie wynosiła 836 MHz i od razu po wyjęciu go z pudełka bez problemu dawało się go podkręcić o 200 MHz (o mniej więcej 25%). A poszczególni producenci sprzętu... cóż, nie mogli jej zmienić.
Nvidia po prostu nie pozwoliła na sprzedaż niereferencyjnych modeli Titana. Miał on być dostępny wyłącznie z referencyjnym, specjalnie zaprojektowanym układem chłodzenia. Po raz pierwszy Nvidia zastosowała w pełni metalową obudowę z okienkiem. przez które można było podziwiać żeberka radiatora wykorzystującego technikę Vapor Chamber. Efekt był taki, że Titan już w swojej referencyjnej formie nie nagrzewał się przesadnie i był umiarkowanie głośny pod obciążeniem. Jedynemu producentowi, który zdołał „przemycić” własny układ chłodzenia dla Titana, był... Gigabyte. Sprzedawał on tę kartę w formie stworzonej przez Nvidię, ale w pudełku znajdował się też niereferencyjny układ chłodzenia WindForce wraz z instrukcją wymiany.
Nvidia swój nowy czołowy model wyceniła na 999 dol., czyli 4000 zł, a miało to swoje uzasadnienie. Titan z łatwością wyprzedzał GTX-a 680 i HD 7970 GHz o 40–55% (w zależności od gry i rozdzielczości). Przez jakiś czas tylko użytkownicy Titana mogli grać płynnie w nowe wymagające produkcje, takie jak Crysis 3, Tomb Raider, Bioshock: Infinite i Metro: Last Light.
Ale najwyższa wydajność dopiero miała nadejść. Już po kilkunastu dniach okazało się, że GTX Titan to tak naprawdę w pełni modyfikowalny (poprzez oprogramowanie BIOS) układ z cyfrowym kontrolerem napięcia. Jak na produkt dla największych zapaleńców przystało, nie trzeba było długo czekać, aż w sieci pojawią się zmodyfikowane BIOS-y: Power Target najwydajniejszej karty można było zwiększyć do 439 W (standardowo – 265 W), a napięcie można było zmieniać programowo ze standardowego 1,2 V aż do 1,6 V (po użyciu odpowiedniego układu chłodzenia ;)).
Pomimo wysokiej ceny wszystkie wymienione czynniki przełożyły się na dużą popularność Titana, bo w pierwszych tygodniach karty te w Amazonie i Neweggu sprzedawały się na pniu. Trzeba jednak powiedzieć wprost, że Titana nie kupowali tylko gracze... Ze względu na swoje korzenie (Tesla) miał on odblokowane dodatkowe (względem GTX-a 680) możliwości w obliczeniach wymagających podwójnej precyzji. Titana kupowali więc także ci, dla których cena modelu Tesla K20X (4 tys. dol.) była nie do przyjęcia, ale tysiąc dolarów za Titana był w sam raz, więc nowy model Nvidii oprócz tego, że został najwydajniejszą kartą dla graczy, był i wciąż jest traktowany jako przystępny produkt dla profesjonalistów.
Maj 2013: GeForce GTX 780
W lutym 2013 roku, czyli po tym, jak pojawił się Titan, na rynku powstała ogromna dziura – cenowa i wydajnościowa. Z jednej strony były GeForce GTX 680 i Radeon HD 7970 GHz za mniej więcej 1600–1800 zł, a z drugiej – GeForce GTX Titan, o wiele wydajniejszy, ale kosztujący 4000 zł. Trzy miesiące później, pod koniec maja, Nvidia postanowiła tę lukę wypełnić nieco przyciętą wersją rdzenia GK110, zastosowanego w Titanie. Nie było to większym problemem. Produkcja układu graficznego o powierzchni ponad 500 mm2 to proces, w którym sporo rzeczy może pójść nie po myśli inżynierów. Przyszła pora na wykorzystanie tych egzemplarzy, które nie przeszły rygorystycznej kontroli jakości: część GK110 nie mogła trafić ani do Tesli K20X, ani do Titana, więc trafiła do... GTX-a 780.
Rdzeń GK110 zastosowany w modelu GeForce GTX 780 miał odblokowane 12 (z 15) bloków SMX, co dało razem 2304 procesory strumieniowe, 48 ROP-ów i 192 jednostki teksturujące. Takie parametry zdradzały, że GTX 780 ma dokładnie o 50% procesorów strumieniowych więcej niż GTX 680, czyli poprzedni czołowy model firmy. Taktowanie rdzenia Nvidia również ustaliła konserwatywnie. Ostatecznie było to tylko 863 MHz, a dodatkowe megaherce miał zapewnić tryb GPU Boost 2.0. Gdyby na tym zakończyło się sztuczne przycinanie potencjalnej wydajności GTX-a 780, byłoby nieźle, lecz Nvidia nie pozwoliła na zbyt wiele, aby nie zaszkodzić sprzedaży swojego czołowego GPU. Siedemsetosiemdziesiątka musiała mieć 3 GB pamięci (z 384-bitowym interfejsem), a więc dwukrotnie mniej niż GTX Titan. Nadal zapewniało to bardzo wysoką wydajność, zbliżoną do osiągów nieprzetaktowanego Titana, ale zdecydowanie trudniej było traktować siedemsetosiemdziesiątkę jako sprzęt długowieczny, bo 3 GB pamięci nie mogły zrobić większego wrażenia.
GeForce GTX 780 odziedziczył po Titanie wszystkie nowinki: technikę GPU Boost 2.0, poprawioną względem sześćsetosiemdziesiątki wydajność w przeliczeniu na wat oraz dopracowany układ chłodzenia, który w pierwszym okresie sprzedaży stał się znakiem rozpoznawczym serii GTX 700.
Wydajność nowego układu również była bardzo dobra. GeForce GTX 780 był o mniej więcej 30% szybszy od GTX-a 680 i HD 7970 GHz, ale wciąż brakowało mu około 10–15% do Titana. Nvidia wzięła pod uwagę wszystkie argumenty, między innymi to, że GTX 780 nie miał bezpośredniej konkurencji w obozie AMD, i wyceniła swoją nowość na 2800 zł, ale już po kilku dniach faktyczne ceny spadły do poziomu 2600 zł.
Maj 2013: GeForce GTX 770
Już kilka dni po omówionym wyżej GTX-ie 780 pojawiła się następna karta Nvidii, GeForce GTX 770. Po udanych wcześniejszych GTX-ach: Titanie i 780, oczekiwania względem GTX-a 770 były nie mniejsze, ale ostatecznie się okazało, że Nvidia nie miała jeszcze zamiaru tworzyć nowej karty do segmentu 1500–2000 zł.
GeForce GTX 770 okazał się nieco przypudrowanym GTX-em 680. Nowa konstrukcja Nvidii dostała ten sam referencyjny, metalowy układ chłodzenia, który sporo namieszał na rynku niereferencyjnych konstrukcji i którego użyto wcześniej w Titanie i siedemsetosiemdziesiątce. Niestety, w samym rdzeniu nic się nie zmieniło: wciąż mieliśmy do czynienia z układem GK104, który miał 1532 procesory strumieniowe, 32 ROP-y i 128 jednostek teksturujących. Oczywiście, to wszystko zrobiono bez zmiany procesu technologicznego, więc GTX 770 był po prostu... odgrzanym kotletem. Jedyne, co udało się wycisnąć z nowego układu, to trochę szybsze taktowanie rdzenia i pamięci niż w sześćsetosiemdziesiątce (bazowe wynosiło 1040 MHz zamiast 1006 MHz). GDDR5 o pojemności 2 GB i 256-bitowym interfejsie w GTX-ie 680 była taktowana z częstotliwością 1502 MHz, a w GTX-ie 770 – 1750 MHz.
Nvidia dosłownie o włos pokonała modelem GTX 770 kartę konkurencji z tego segmentu: Radeona HD 7970 GHz. Różnica wynosiła 2–3%, więc obie karty tak naprawdę były porównywalne. Radeon kosztował wówczas około 1600 zł, więc Nvidia swoją nowość wyceniła na 1700 zł. Tyle kosztował model, który miał 2 GB pamięci. Wkrótce pojawiły się jednak również powszechniej dostępne modele 4-gigabajtowe za mniej więcej 1900 zł, ale nie cieszyły się popularnością i w zasadzie były tylko ciekawostką.
GeForce GTX 770 zastąpił tym samym starszego GTX-a 680, który po prostu zniknął z rynku.
Październik 2013: Radeon R9 280X
Po pierwszej połowie roku, która należała do Nvidii, AMD zapowiedziało nową rodzinę kart graficznych. Postanowiono przy okazji zmienić konwencję nazewniczą produktów. Przedrostek HD zniknął, za to pojawił się R9 – to oznaczało, że chodzi o sprzęt dla zapaleńców, stworzony z myślą o najwyższej wydajności. Dalsza część nazwy, w tym przypadku cyfra 2, oznacza po prostu serię (R9 200), a następne cyfry – konkretny model. Przy tym po raz pierwszy od dłuższego czasu AMD wprowadziło nową rodzinę kart, zaczynając od konstrukcji, która wcale nie była najwydajniejsza.
Bliższe spojrzenie na Radeona R9 280X pokazało, że AMD, podobnie jak Nvidia, postanowiło odsmażyć wcześniej przygotowane danie. Rdzeń Radeona R9 280X jest taki sam jak zastosowany wcześniej w modelach HD 7970 oraz HD 7970 GHz: ma 2048 procesorów strumieniowych, 128 jednostek teksturujących i 32 ROP-y. O ile jednak w przypadku Nvidii nowa karta faktycznie była szybsza (choć minimalnie) od poprzednika, o tyle tym razem było odwrotnie. Radeon R9 280X okazał się wolniej taktowany od wprowadzonego prawie 1,5 roku wcześniej HD 7970 GHz. Ten drugi miał rdzeń taktowany z częstotliwością nie mniejszą niż 1000 MHz i teoretycznie mógł go przyspieszać nawet do 1050 MHz, a w przypadku R9 280X częstotliwość 1000 MHz była maksymalną ustaloną przez AMD. Realnie więc nowa konstrukcja była wolniejsza od starszych modeli i dopiero w kartach niereferencyjnych taktowanie rdzenia oscylowało w granicach 1100–1150 MHz. Tak jak w Radeonie HD 7970 GHz, tak i tutaj znalazło się miejsce dla 3 GB pamięci GDDR5, połączonej z rdzeniem 384-bitowym interfejsem i taktowanej z częstotliwością 1500 MHz.
Nowa karta AMD (a faktycznie stara – HD 7970 GHz) miała rywalizować z nowym modelem Nvidii, GTX-em 770 (a w rzeczywistości starym – GTX-em 680). Zanim na rynku pojawił się Radeon, ten ostatni zdołał stanieć do 1400 zł i była to już bardzo korzystna oferta, ale AMD miało asa w rękawie. Wycena modelu R9 280X była bardzo wyrachowana: „czerwoni” chcieli za swój produkt 1150 zł. Faktyczne ceny utrzymywały się na poziomie 1250 zł. R9 280X był o mniej więcej 10% słabszy od GTX-a 770, ale też proporcjonalnie tańszy, bo różnica w cenie wynosiła 150 zł (12%).
Październik 2013: Radeon R9 290X
Najbardziej kontrowersyjna nowość 2013 roku to bez wątpienia model Radeon R9 290X, czyli pełnoprawny następca modelu HD 7970 GHz, który miał zapewnić znacznie zwiększoną wydajność i zdaniem wielu być „zabójcą” GTX-a Titana. Oczekiwania względem nowej konstrukcji AMD były bardzo duże, w końcu firma miała 8 miesięcy opóźnienia względem najwydajniejszej karty konkurencji, czyli Titana, i pół roku względem nieco słabszego, ale również bardzo wydajnego GTX-a 780. Ogólnie rzecz biorąc, użytkownicy najwydajniejszych kart Nvidii już od przynajmniej pół roku grali komfortowo w najwyższych ustawieniach jakości obrazu w takie gry, jak Crysis 3, Bioshock: Infinite, Metro: Last Light i Tomb Raider, natomiast ci, którzy liczyli na duży układ AMD, musieli obejść się smakiem i czekać.
Nowy układ wciąż był produkowany w procesie technologicznym 28 nm i był tylko nieco ulepszoną wersją Graphics Core Next. Samo AMD wspominało raczej o gęstszym upakowaniu tranzystorów niż w Radeonie HD 7970 GHz czy jego następcy, R9 280X. Jeśli chodzi o parametry, nowy Radeon R9 290X nie był żadnym monstrum: miał 2816 procesorów strumieniowych, czyli o ponad 1/3 więcej od R9 280X, 64 ROP-y (dwa razy tyle co R9 280X) i 176 jednostek teksturujących (przeszło 1/3 więcej niż R9 280X). Dodatkowo firma zdecydowała się na 512-bitowy interfejs pamięci (pierwszy raz od czasów HD 2900XT) oraz kości GDDR5 o łącznej pojemności 4 GB, taktowane z częstotliwością 1250 MHz. Taktowanie rdzenia ustalono na 1000 MHz i jak się wkrótce okazało, było to najszybsze możliwe, takie jakie sprzęt osiągał tylko w idealnych warunkach.
Wszystko to miało związek z chłodzeniem Radeona R9 290X. AMD na rdzeniu Hawaii XT zastosowało nowy, plastikowy układ. Ten miał być jak najtańszy w produkcji, aby firma mogła zaproponować cenę niższą od cen kart z przeciwnego obozu (GTX-a Titan i GTX-a 780). Swój nowy wynalazek wyposażyła również w dwa tryby działania, Quiet oraz Uber, które zmieniało się przełącznikiem na laminacie karty, choć dla przeciętnego użytkownika było to ogromnie niewygodne.
Tryby te polegały na sztucznym ograniczaniu prędkości obrotowej turbiny. Maksymalną prędkość w trybie Quiet ustalono na 40%, a ograniczenie termiczne – na 95 stopni. Po przekroczeniu tej temperatury taktowanie zaczynało zwalniać: z 1000 MHz poprzez 900 MHz aż do minimalnej wartości, 750 MHz. W trybie Quiet temperaturę 95 stopni rdzeń osiągał po maksymalnie kilku minutach gry, a wtedy wydajność malała względem początkowych wartości o mniej więcej 20–25%, a i tak ciśnienie akustyczne sięgało w naszych pomiarach 48 dB, podczas gdy konkurencyjne konstrukcje nie przekraczały 43 dB. Skala ta jest logarytmiczna, więc faktycznie R9 290X już w trybie Quiet był przeszło dwukrotnie głośniejszy od produktów Nvidii.
Prawdziwa zabawa zaczynała się dopiero w trybie Uber. Maksymalna prędkość obrotowa turbiny wzrastała do 55%, co oznaczało szum o natężeniu 53 dB. Taktowanie rdzenia utrzymywało się w tym trybie w okolicach 1000 MHz (w bardzo dobrze wentylowanej obudowie lub w niezamkniętej platformie testowej). Niestety, to wszystko sprawiło, że nowy Radeon R9 290X stał się obiektem żartów, zarówno użytkowników, jak i prasy. Tak jak na GTX-ie 480 (Fermi) niektórzy próbowali nawet smażyć jajka, tak Radeon R9 290X stawał się w internetowych przeróbkach silnikiem odrzutowym.
Ogółem nowej karty nie dało się testować bez słuchawek na uszach, przy czym nawet głośna muzyka ani dźwięki w grze nie maskowały szumu komputera.
Były dwie rzeczy, które teoretycznie wynagradzały fatalną kulturę działania Radeona R9 290X (temperaturę 94–95 stopni i głośność odkurzacza): wydajność i cena. Radeon R9 290X wcale nie okazał się zapowiadanym zabójcą GTX-a Titana, bo ostateczne starcie w rozdzielczościach 1920 × 1080 i 2560 × 1440 przegrał o kilka procent. Czołowa konstrukcja AMD zrównała się z czołową konstrukcją Nvidii dopiero w rozdzielczości 4K, ale nie miało to ostatecznie większego znaczenia: obie karty nie pozwalały i nie pozwalają w tej rozdzielczości na płynną rozgrywkę nawet w wysokich ustawieniach jakości obrazu.
„Czerwoni” wycenili swój najszybszy model bardzo agresywnie, bo na 2079 zł. Ta cena wielu wprawiła w osłupienie. Dzięki temu kartę, która ogólnie miała ogromne wady (głośność, temperatura, uciążliwy sposób przełączania się pomiędzy trybami Uber i Quiet), często polecano zdesperowanym graczom, którzy chcieli cieszyć się wydajnością wcześniej dostępną tylko posiadaczom GTX-a 780 i GTX Titana za mniejsze pieniądze. Cena tego drugiego nigdy nie spadła i zawsze wynosiła 4000 zł, ale GeForce GTX 780, zanim pojawił się Radeon R9 290X, zdążył stanieć do 2250 zł. Zresztą kilka dni po tym, jak na rynek trafił R9 290X, okazało się, że mimo ustalenia ceny sugerowanej na 2079 zł faktycznie nowość kosztowała prawie tyle samo co GTX 780: około 2150–2200 zł.
Już w pierwszych dniach okazało się jednak, że AMD ma spory problem. Głośność Radeona R9 290X była tak naprawdę nie do zniesienia i jedyną nadzieją pozostawały modele niereferencyjne różnych producentów. Tych jednak na rynku nie było nawet po kilku tygodniach. Na niereferencyjne układy chłodzenia do Radeona R9 290X przyszło nam czekać 2 miesiące, aż do stycznia 2014 roku.
Nowość budziła mieszane uczucia. Z jednej strony pojawiło się mnóstwo pochwał dotyczących stosunku wydajności do ceny, z drugiej zaś nie można było pozbyć się wrażenia, że R9 290X był produktem skrojonym na szybko, bez oglądania się na kulturę działania. Przez to stał się on obiektem drwin.
Listopad 2013: Radeon R9 290
Atmosfera wciąż była gęsta, a już się pojawił następny produkt AMD, nieco okrojony względem starszego brata Radeon R9 290. To ten sam układ, który zastosowano w R9 290X, ale o mniejszej liczbie aktywnych procesorów strumieniowych. R9 290X miał ich aż 2816, lecz na etapie produkcji, jak w przypadku każdego układu, zdarzają się rdzenie, które nie przechodzą kontroli jakości. Wtedy część jednostek jest w nich blokowana i tak naprawdę na rynek wchodzi nowy, nieco słabszy produkt.
Tak też było z modelem R9 290. Miał on aktywnych 2560 procesorów strumieniowych zamiast 2816 oraz 160 jednostek teksturujących, czyli o 16 mniej niż w czołowym układzie, natomiast ROP-ów było tyle samo (64). Ponadto spowolniono taktowanie rdzenia względem R9 290X: z 1000 MHz do 947 MHz. Reszta parametrów była taka sama, a więc rdzeń współpracował z 4 GB pamięci GDDR5 (taktowanej z częstotliwością 1250 MHz) za pośrednictwem 512-bitowego interfejsu.
W Radeonie R9 290 nie było już nieszczęsnych trybów Uber i Quiet. Omawiana karta miała działać w jednym trybie, którego założenia były następujące: maksymalna prędkość obrotowa turbiny miała wynosić 47%, a maksymalna temperatura rdzenia – 95 stopni. Na R9 290 montowany był ten sam układ chłodzenia, który wcześniej zastosowano w modelu R9 290X, więc nie należało się spodziewać żadnych niespodzianek: kultura działania była tak samo naganna, bo rdzeń pracował cały czas w 94–95 stopniach Celsjusza, a ciśnienie akustyczne generowane przez turbinę wynosiło... 50 dB.
R9 290 został wyceniony przez AMD na mniej więcej 1500 zł, co sprawiło, że nie miał na rynku bezpośrednich rywali. Radeon R9 290X wciąż kosztował 2100–2200 zł, a GeForce GTX 780, po szybkim skorygowaniu ceny przez Nvidię – 1800–1900 zł. Ceny obu tych kart były zbyt wysokie, by mogły rywalizować z R9 290, a niżej w hierarchii były już znacznie mniej wydajne modele R9 280X i GTX 770, które wówczas można było kupić za mniej więcej 1150 zł.
Radeon R9 290, podobnie jak starszy brat, długo nie był dostępny w odmianach niereferencyjnych, aż do stycznia 2014 roku, a ponieważ referencyjna też była bardzo energochłonna, gorąca i głośna, sensowność tego zakupu stanęła pod dużym znakiem zapytania, pomimo dobrego stosunku wydajności do ceny (nowy produkt AMD był o 2% szybszy od GTX-a 780, a o 300 zł tańszy).
Listopad 2013: GeForce GTX 780 Ti
Nvidia w swojej ofercie od maja 2013 roku miała dwie bardzo wydajne konstrukcje: GTX Titana i GTX-a 780. Po wprowadzeniu układów Radeon R9 290X oraz R9 290 ta druga zaczęła tanieć, lecz była już po prostu zbyt mało wydajna, aby Nvidia mogła powiedzieć, że wciąż ma najszybszą kartę graficzną na rynku. Ten tytuł dzierżył GeForce GTX Titan, ale obniżka jego ceny nie wchodziła w grę, bo faktycznie był traktowany przez Nvidię jako wstęp do profesjonalnych kart (przez możliwość wykonywania obliczeń podwójnej precyzji). Kontratak na Radeona R9 290X miał przeprowadzić GeForce GTX 780 Ti.
Przypomnijmy, że GK110 składał się z 15 bloków SMX (po 192 rdzenie), co łącznie dawałoby 2880 procesorów strumieniowych, gdyby jeden blok SMX nie został – zarówno w Tesli K20X, jak i w Titanie – po prostu zablokowany. W pełni odblokowane karty najwyraźniej nie przechodziły kontroli jakości. Do czasu, bo listopad okazał się odpowiednim momentem, aby zaprezentować najwydajniejszą kartę dla graczy, czyli pełny układ GK110 z odblokowanymi wszystkimi blokami SMX. Nvidia do walki o tytuł najszybszej konstrukcji wystawiła właśnie model GeForce GTX 780 Ti, który miał 2880 procesorów strumieniowych, 48 ROP-ów i 240 jednostek teksturujących, a do tego 3 GB pamięci GDDR5 taktowanej z częstotliwością 1750 MHz i współpracującej z rdzeniem za pośrednictwem 384-bitowej szyny. Rdzeń GTX-a 780 Ti w wersji referencyjnej był taktowany równie konserwatywnie jak w Titanie i GTX-ie 780, bo częstotliwość tę ustalono na 876 MHz, aby wydajność w porównaniu z osiągami produktów konkurencji była odpowiednia i karta mogła rywalizować z Radeonami nie tylko wydajnością, ale też kulturą działania.
Nowe dziecko Nvidii bez problemu zostało najwydajniejszą kartą graficzną na rynku. GeForce GTX 780 Ti pokonał Radeona R9 290X dokładnie o tyle, ile było trzeba, aby nie pozostawić wątpliwości, co jest lepsze: 9–10% w rozdzielczościach 1920 × 1080 i 2560 × 1440 oraz 5% w rozdzielczości 4K (choć podtrzymujemy swoje zdanie, że na razie 4K to pieśń przyszłości i że te pyrrusowe zwycięstwa w Ultra HD nie mają żadnego znaczenia).
Mimo że Radeon R9 290X kosztował w listopadzie 2013 roku tyle, ile AMD zasugerowało w październiku, czyli 2050 zł, GeForce GTX 780 Ti został wyceniony na 2800 zł na zasadzie: i tak się sprzeda.
GeForce GTX 780 Ti pokazał też, że Nvidia nie zasypiała gruszek w popiele i nie przygotowała swojego układu na ostatnią chwilę, bo już po tygodniu pojawiły się pierwsze modele niereferencyjne. To właśnie ich producenci pokazali prawdziwą wydajność GTX-a 780 Ti. Rdzeń w produktach takich firm, jak Asus, Gigabyte i MSI, zamiast 876 MHz osiągał 1000 MHz, a więc był o ponad 10% szybszy niż w konstrukcji referencyjnej. Co ciekawe, po raz kolejny okazało się, że Nvidia nieco zawyżyła swoją cenę sugerowaną (2800 zł), bo podkręcone wersje referencyjne można było kupić za 2600–2700 zł.
Nvidia rywalizację o miano najlepszej karty graficznej na rynku wygrała na dwóch frontach: nie dość, że GeForce GTX 780 Ti bez trudu pokonał Radeona R9 290X, to jeszcze zrobił to przy zachowaniu niezłej kultury działania, a gdy wciąż czekaliśmy na wersje niereferencyjne Radeonów, GeForce'y były już dostępne w całej gamie modeli.
Styczeń 2014: Radeon R9 290X (modele niereferencyjne)
W styczniu 2014 roku nie pojawiła się oficjalnie żadna nowa karta graficzna, ale w praktyce nowości, owszem, były. Wprowadzone parę miesięcy wcześniej Radeony R9 290X nie nadawały się do dłuższego użytkowania. Ich wydajność w tej cenie, około 2200 zł, była odpowiednia. Problemem była, oczywiście, kultura działania, a raczej jej brak: ciśnienie akustyczne generowane przez komputer w grach wynosiło 55 dB, a rdzeń graficzny ciągle pracował w temperaturze 95 stopni. Wszyscy z niecierpliwością czekali więc na wersje niereferencyjne nowych Radeonów, które najpierw zapowiadane były na listopad 2013 roku, później na grudzień, ale ostatecznie pojawiły się... w połowie stycznia.
Jeśli chodzi o Radeona R9 290X, na pierwszy ogień (w styczniu) poszły modele Asus DirectCU II i Gigabyte WindForce. Później był Sapphire Tri-X (luty), XFX Black Edition (luty), MSI Lightning (kwiecień) i Asus ROG Matrix (czerwiec). Parametry rdzenia R9 290X już w jego pierwszej odmianie były niesamowicie wyżyłowane – wydawało się, że AMD poświęciło wszystko (a najbardziej temperaturę i głośność), aby tylko zbliżyć się do GTX-a Titana i przegonić GTX-a 780. Jeszcze w październiku były to tylko domysły, ale wytwórcy sprzętu nieformalnie to potwierdzili.
Jak wiadomo, producenci wersji niereferencyjnych zawsze chcą zaoferować wydajność lepszą od tej, którą zapewnia wersja referencyjna, i zależy im na tym, aby wyróżnić się na tle innych. Stąd wyścig na częstotliwości taktowania rdzenia i pamięci. Tymczasem kolejne niereferencyjne wersje Radeona R9 290X potwierdzały, że nowy układ AMD zapewnia bardzo małe możliwości dalszej poprawy osiągów. Modele Asusa, Gigabyte'a, Sapphire'a i XFX-a były fabrycznie podkręcone do wartości ledwie przekraczających 1000 MHz, a więc dostępnych już posiadaczom wersji referencyjnej. Taktowanie rdzenia w wersjach niereferencyjnych wynosiło 1040–1050 MHz, zatem przyspieszenie w fabrycznej konfiguracji to zaledwie 4–5%. Dopiero w kwietniu pojawił się najszybszy Radeon R9 290X: wersja MSI z serii Lightning. Zastosowanie ogromnego, trzyslotowego układu chłodzenia z trzema wentylatorami pozwoliło przyspieszyć taktowanie rdzenia ze standardowych 1000 MHz do... 1080 MHz, a więc o 8%. To oznaczało tylko jedno: Radeon R9 290X od razu miał najlepsze możliwe parametry i poszczególni producenci sprzętu mogli dodać od siebie tylko kilka procent wydajności.
Układy chłodzenia stosowane w niereferencyjnych Radeonach R9 290X faktycznie rozwiązały problem temperatury. Najniższymi wskazaniami pod obciążeniem mogły się pochwalić modele Sapphire i MSI (około 70 stopni), a najsłabiej radziły sobie konstrukcje Asusa i Gigabyte'a (około 85 stopni). Poprawa względem wersji referencyjnej była więc w niektórych przypadkach spora: nawet 25 stopni. To samo dotyczy głośności: od stycznia 2014 roku można było wreszcie kupić umiarkowanie cichego Radeona R9 290X (o ile nie był to MSI Lightning).
Modele niereferencyjne Radeona R9 290X, tak jak można było się spodziewać, były droższe od referencyjnej „suszarki”. W styczniu 2014 roku tę ostatnią można było kupić za mniej więcej 2000 zł, a ceny najtańszych modeli niereferencyjnych zaczynały się od 2150 zł. Do tego momentu niereferencyjne wersje najszybszej jednoprocesorowej karty na rynku, GTX-a 780 Ti, kosztowały około 2500 zł.
Styczeń 2014: Radeon R9 290 (modele niereferencyjne)
Radeony R9 290 od samego początku miały ten sam problem co R9 290X: głośność układu chłodzenia. Został one rozwiązany w tym samym momencie co w przypadku starszego brata. W styczniu 2014 roku równocześnie z niereferencyjnymi R9 290X zaczęły się pojawiać dwieściedziewięćdziesiątki – przetaktowane i ze zmienionym układem chłodzenia. Model AMD był taktowany z częstotliwością: rdzeń – 947 MHz, pamięć – 1250 MHz i podobnie jak w R9 290X poszczególni producenci sprzętu nie mieli wielkiego pola do popisu. Nie udało nam się przetestować zbyt wielu niereferencyjnych R9 290, zaledwie trzy konstrukcje: wprowadzone w styczniu Asus DirectCU II i Sapphire Tri-X oraz kwietniowy Sapphire Vapor-X. Asus i Sapphire ustalili taktowanie rdzenia na 1000 MHz (5–6-procentowa poprawa względem wersji referencyjnej), a młodszy o 3 miesiące Vapor-X w konfiguracji fabrycznej osiągał 1030 MHz (9-procentowe przyspieszenie).
Niereferencyjne wersje Radeonów R9 290 były znacznie chłodniejsze (temperatura rdzenia Hawaii pod obciążeniem wynosiła 70–80 stopni) i cichsze.
Niereferencyjne Radeony R9 290 również pod względem ceny bardzo dobrze wpasowały się w rynek: GeForce GTX 780 kosztował wówczas około 1800 zł, a producenci sprzętu swoje własne dwieściedziewięćdziesiątki wycenili na 1600 zł, co sprawiło, że stały się łakomym kąskiem dla graczy, którzy byli gotowi wydać na kartę graficzną 1500–2000 zł.
Wrzesień 2014: GeForce GTX 980
Od stycznia do września na rynku GPU zapanowała długa stagnacja. Dla entuzjastów wciąż dostępne były tylko wymienione wcześniej karty graficzne, a nowości miały nadejść dopiero w bliżej nieokreślonym czasie. Nvidia przerwała ciszę we wrześniu – to właśnie wtedy wprowadziła swoją całkowicie nową architekturę, Maxwell.
Po porażce, jaką był GeForce GTX 480 (Fermi), i tylko nieco bardziej udanym GTX-ie 580 (również Fermi) Nvidia postanowiła skupić się na tym, aby jej karty były nie tylko wydajne, ale również energooszczędne. Sama energooszczędność nie jest bardzo ważna dla graczy, bo na podstawie rachunków za prąd trudno wykazać wyższość bardziej energooszczędnej karty nad mniej energooszczędną. Jest jednak coś, o czym wielu zapomina: mniejszy pobór energii to znacznie lepsze warunki pracy GPU: rdzeń będzie osiągał niższą temperaturę, a więc łatwiej będzie go schłodzić. Na takich zasadach projektowano architekturę Maxwell, która miała zapewnić przede wszystkim wysoką wydajność w przeliczeniu na jednostkę energii. W ten sposób Nvidia chciała zaoferować bardzo dobre osiągi przy wysokiej kulturze działania. A jak pisaliśmy, rachunki za prąd to jedno, ale głośność rzędu 55 dB pod obciążeniem jest nie do zniesienia. Nvidia przeorganizowała bloki względem Keplera: tutaj w jednym SMM (Streaming Multiprocessor Maxwell) znalazło się 128 procesorów strumieniowych, a nie, jak w Keplerze, 192 procesory w jednym SMX. To pozwoliło inżynierom na lepsze zarządzanie jednostkami i tym samym zmniejszenie zapotrzebowania na energię.
We wrześniu Nvidia zaprezentowała więc nową kartę graficzną o nazwie GeForce GTX 980. Jest ona oparta na układzie GM204, co zdradza, że nowy produkt jest tym samym, czym był GeForce GTX 680 (GK104), a zatem niepełną wersją dużo większego rdzenia graficznego. Rdzeń GM204 ma 2048 procesorów strumieniowych, 64 ROP-y i 128 TMU. Taktowanie rdzenia ustalono na 1126 MHz, która to częstotliwość za sprawą techniki GPU Boost 2.0 rośnie w grach do około 1200–1250 MHz. Nvidia po raz pierwszy zdecydowała się też udostępnić swoim użytkownikom taką samą ilość pamięci, jaką zapewniają Radeony R9 290X i 290X, czyli 4 GB. Tutaj jednak dostęp do pamięci odbywa się za pośrednictwem 256-bitowej szyny, co wraz z taktowaniem kości na poziomie 1750 MHz przełożyło się na przepustowość rzędu 224 GB/s. Wszystko to przy TDP określonym przez Nvidię na 165 W.
Podane powyżej parametry na papierze nie zrobiły większego wrażenia ani na użytkownikach Radeonów R9 290X, ani na posiadaczach GTX-ów 780 czy GTX-ów 780 Ti – w końcu 2048 jednostek CUDA to o 40% mniej, niż miała dotąd najwydajniejsza karta graficzna na rynku, czyli właśnie GTX 780 Ti. Potencjalni nabywcy zapomnieli jednak, że jednostki cieniujące Nvidii w architekturze Maxwell są znacznie efektywniejsze od stosowanych w Keplerze. Wpływ na wydajność był dla konkurencji i użytkowników piorunujący: GeForce GTX 980 z łatwością rozprawił się z Radeonem R9 290X, bo wyprzedził go o ponad 15%, a nawet okazał się o kilka procent lepszy od GTX-a 780 Ti. Stary król został zdetronizowany po niecałym roku panowania, a koronę najwydajniejszej karty graficznej przejął właśnie GeForce GTX 980.
Żeby było nawet ciekawiej, okazało się, że potencjał GTX-a 980 jest jeszcze większy, podobnie jak wcześniej GeForce'a GTX 780 Ti. Parametry układu nie były od razu maksymalnie wyżyłowane, a poszczególni producenci sprzętu mogli od razu stworzyć własne konstrukcje, które były o 10% szybsze i dostępne już pierwszego dnia. Nvidia, dostarczając wydajny i jednocześnie energooszczędny układ graficzny, pozwoliła producentom również na nieco innowacji: wszystkie niereferencyjne GTX-y 980 są półpasywne, a więc w spoczynku wentylatory się nie kręcą. Pod obciążeniem układ graficzny GTX-a 980 rozgrzewa się do około 80 stopni (w modelu referencyjnym) lub 60–70 stopni (w wersjach niereferencyjnych). To wszystko przy zachowaniu głośności na poziomie 25 dB, podczas gdy najwydajniejszy Radeon R9 290X w wersji MSI Lightning generuje ciśnienie akustyczne rzędu 35 dB, a więc odczuwalna głośność jest przynajmniej dwukrotnie większa.
Od stycznia 2014 roku do września (przed Maxwellem) na rynku kart graficznych panowała cisza, Jedynie zaczęły spadać ceny sprzętu.
- GTX 780 Ti (–6%): 2500 zł (styczeń) -> 2350 zł (sierpień)
- R9 290X (nieref.) (-20%): 2150 zł (styczeń) -> 1800 zł (sierpień)
- GTX 780 (–0%): 1800 zł (styczeń) -> 1800 zł (sierpień)
- R9 290 (nieref.) (-14%): 1600 zł (styczeń) -> 1400 zł (sierpień).
- GTX 770 (–10%): 1200 zł (styczeń) -> 1100 zł (sierpień)
- R9 280X (–5%): 1150 zł (styczeń) -> 1100 zł (sierpień)
Największy spadek cen w ciągu ośmiu miesięcy zaliczył Radeon R9 290X, który staniał aż o 20%. Kartę, która w styczniu kosztowała 2150 zł, w sierpniu można było kupić już za 1800 zł. Nieco mniej w tym czasie staniały Radeony R9 290, o 14%, a najdroższy model, GeForce GTX 780 Ti, niezagrożony również w dziedzinie wydajności – tylko o 6%. Natomiast w ogóle nie zmieniła się cena GTX-a 780, który zarówno w styczniu, jak i sierpniu kosztował około 1800 zł.
Cena Maxwella początkowo była wielką niewiadomą, przecież Nvidia miała kartę graficzną, która zapewniała najwyższą wydajność na rynku przy nieosiągalnej dla rywali głośności, co bardzo spodobało się potencjalnym użytkownikom. Nvidia, skoro miała bezkonkurencyjny produkt, ustaliła cenę swojego nowego dziecka tak, jak można było się spodziewać: na 2600 zł, i tyle też na początku kosztowały podkręcone konstrukcje niereferencyjne. Ostatecznie Nvidia ujawniła również, że GeForce GTX 980 został zaprojektowany tak, aby zastąpić GTX-a 780, więc ten drugi miał powoli zniknąć ze sklepów.
Wrzesień 2014: GeForce GTX 970
Wraz z omówionym wyżej GTX-em 980 Nvidia przedstawiła model GeForce GTX 970. Ten przycięty względem dziewięćsetosiemdziesiątki układ również jest zbudowany w architekturze Maxwell, ale oparty na rdzeniu w wersji GM204-200 (podczas gdy GeForce GTX 980 jest wyposażony w GM204-400). W układzie GM204 jest 1664 procesorów strumieniowych, 56 ROP-ów i 128 TMU, a całość współpracuje z 4 GB pamięci taktowanej z częstotliwością 1750 MHz.
Oficjalne parametry GTX-a 970 wywołały pod koniec stycznia tego roku skandal za sprawą zawartego w nich błędu, o którym obszerniej napisaliśmy w artykule: „GeForce GTX 970 – problemy z przepustowością pamięci po zajęciu 3 GB?”. Początkowo GeForce GTX 970 miał być praktycznie identyczny z modelem GeForce GTX 980: także miał mieć 64 ROP-y oraz pamięć podręczną L2 o pojemności 2048 kB. Ostatecznie, po długim czasie, Nvidia przyznała, że faktycznie GeForce GTX 970 ma 56 ROP-ów, a pamięć podręczna drugiego poziomu w rdzeniu GM204-200 ma pojemność 1792 kB. Gorsza, niż sądzono, okazała się też przepustowość pamięci: GTX 980 zapewnia na całej 4-gigabajtowej przestrzeni 180 GB/s, a GeForce GTX 970 w miarę zbliżoną wartość, 150 GB/s, zapewnia tylko na pierwszej, 3,5-gigabajtowej partycji, bo w przypadku ostatnich 512 MB wynosi ona 22 GB/s. Nvidia została przyłapana na gorącym uczynku, a część rozgniewanych użytkowników postanowiła oddać swoje karty z tytułu niezgodności towaru z umową.
Wróćmy jednak do sedna, czyli wydajności. Testerzy mieli w rękach cały czas karty graficzne o 56 ROP-ach, 1792 kB pamięci podręcznej L2 i 4 GB pamięci GDDR5 podzielonej na dwie partycje: szybszą i wolniejszą. I również wydajność GTX-a 970 wszystkich zaskoczyła: także on wyprzedził, o kilka procent, czołowy produkt konkurencji, czyli Radeona R9 290X. Co ciekawe, GeForce GTX 970 tracił do starszego brata, GTX-a 980, około 10%. Ogółem Nvidia swoim nowymi układami w architekturze Maxwell zmonopolizowała rynek najwydajniejszych kart graficznych. Od września 2014 roku firma okupuje całe podium, na którym najniżej stoi GeForce GTX 970, po lewej – GeForce GTX 780 Ti, a najwyżej – GTX 980.
Nvidia od samego początku zapowiadała, że GeForce GTX 970 nie doczeka się wersji referencyjnej z metalowym układem chłodzenia znanym z wcześniejszych kart tej firmy. Zamiast tego na rynku od razu pojawiły się modele niereferencyjne, które odznaczały się wysoką kulturą działania: temperatura rdzenia pod obciążeniem wynosiła 60–75 stopni Celsjusza, a ciśnienie akustyczne sięgało wtedy zaledwie 25 dB. Tak jak w GTX-ach 980, tak i w dziewięćsetsiedemdziesiątkach producenci sprzętu mogli pozwolić sobie na to, aby ich własne konstrukcje bez wyjątku pracowały w trybie półpasywnym, co oznacza, że wentylatory przy braku obciążenia (pulpit, przeglądanie internetu) w ogóle się nie kręcą. Taktowanie rdzenia w wersjach niereferencyjnych ustalono na mniej więcej 1100–1150 MHz.
O ile GTX-a 980 wyceniono bez żadnych skrupułów na 2600 zł (przez brak realnej konkurencji), tak zachowanie Nvidii w przypadku dziewięćsetsiedemdziesiątki było bardzo wyrachowane. Firma wyceniła swój produkt na mniej więcej 1500 zł, zastrzegając przy tym, że wersji referencyjnej nie będzie, więc zostawiła pole do popisu producentom sprzętu, takim jak Asus, MSI, Gigabyte, EVGA i Palit. Ci zaś postanowili, że podkręcone już w fabrycznej konfiguracji wersje GTX-ów 970 będą kosztować około 1500 zł.
To był cios dla AMD, które miało wówczas w swoim katalogu Radeony R9 290X za 1800 zł i Radeony R9 290 za 1400 zł. GeForce GTX 970 za 1500 zł, wydajniejszy, chłodniejszy i cichszy, praktycznie pogrzebał ofertę „czerwonych”. Agresywna strategia cenowa Nvidii w przypadku GTX-a 970 spotkała się z entuzjazmem: zaczął się szturm na sklepy w poszukiwaniu dziewięćsetsiedemdziesiątki, a zbliżający się okres świąteczny miał dodatkowo napędzić sprzedaż.
Wydajność, cena i kultura działania GTX-a 970 zawróciły w głowie graczom, co sprawiło, że nowy produkt „zielonych” sprzedawał się na całym świecie doskonale. Zapewne niemal każda karta graficzna kupiona pod choinkę była właśnie GTX-em 970, a najlepiej świadczą o tym statystyki Steama, który ma 125 mln aktywnych użytkowników. Według tych statystyk GTX-a 970 ma 2,22% graczy. Mało? Cała seria AMD Radeon R9 200, czyli takie karty, jak: R9 280, R9 285, R9 280X, R9 290, R9 290X, na tej samej platformie ma udział na poziomie 0,88%. Innymi słowy, jeden GeForce GTX 970 sprzedał się w ciągu ostatnich 6 miesięcy ponaddwukrotnie lepiej niż cała seria kart Radeon R9 przez ostatnie 1,5 roku. Było widać, że Nvidia wiedziała, co robi, sugerując cenę 1500 zł, dzięki czemu dziewięćsetsiedemdziesiątkę uważa się za najlepiej wycenioną kartę tej klasy od lat.
12 entuzjastów – ścieżki 1–3
Na poprzednich stronach opisaliśmy 11 kart graficznych dla zapaleńców z ostatnich 3 lat. Oczywiście, skupiliśmy się na absolutnie najwydajniejszych układach, lepszych niż GeForce GTX 680 i Radeon HD 7970 GHz.
W redakcji zastanawialiśmy się nad tym, jak „entuzjasta” mógł zmieniać karty graficzne w tym okresie – jaki miał wybór, kiedy i co mógł kupić i za ile. Uznaliśmy, że wymienione karty razem zapewniały 12 możliwych dróg powiększania mocy graficznej. Piszemy: możliwych, ale takie zmiany jak GTX 680 -> GTX 780 -> R9 290X -> GTX 770, choć były, owszem, możliwe, byłyby też bardzo... nierozsądne, a więc są także mało prawdopodobne :)
Zakładamy, że każdy hipotetyczny użytkownik komputera wychodził od GTX-a 680 i Radeona HD 7970 GHz: obie karty są idealne do porównań, bo w czerwcu 2012 roku były dostępne w zbliżonych cenach i miały podobną wydajność (z 5-procentowym wskazaniem na Radeona).
Już teraz podpowiemy, że w ostatnich 2 latach na przyrost mocy graficznej swojego peceta można było wydać zarówno „tylko” 800 zł, jak i aż 4300 zł ;)
Użytkownik #0: GeForce GTX 680 / Radeon HD 7970 GHz
Ten użytkownik to punkt wyjścia do naszych rozważań – to ktoś, kto kupił jedną z dwóch czołowych w 2012 roku kart graficznych i korzysta z niej do dzisiaj.
Użytkownik #1: GeForce GTX 680 / Radeon HD 7970 GHz -> GeForce GTX Titan
Pierwszy przypadek jest najprostszy i jednocześnie posłuży jako podstawa do porównań. Zakładamy, że użytkownik, który miał GTX-a 680 lub HD 7970 GHz, postanowił zmienić kartę na wprowadzonego w lutym 2013 roku GTX-a Titana. Uwzględniliśmy to, że po sprzedaniu poprzedniej karty (GTX-a 680 / HD 7970 GHz) na rynku wtórnym w lutym 2013 roku miał do wydania około 1200 zł, podczas gdy nowe egzemplarze tych samych kart kosztowały wtedy 1500–1700 zł. Do nowego Titana w pierwszych dniach jego obecności na rynku (lub krótko potem) musiał więc dołożyć 2800 zł. Zakładamy również, że GeForce GTX Titan starczy mu do dzisiaj, bo wciąż znajduje się w czołówce pod względem wydajności, pomiędzy GTX-em 970 a GTX-em 980.
1. zmiana (luty 2013 r.) | GTX 680 / HD 7970 GHz | GeForce GTX Titan | Rezultat zmiany |
---|---|---|---|
Wartość sprzętu | 1200 zł (używany) | 4000 zł (nowy) | –2800 zł |
Całkowity koszt zmian GPU użytkownika #1 |
---|
2800 zł |
A jak kształtowały się osiągi Titana względem GTX-a 680 / HD 7970 GHz w coraz to nowszych grach?
Posiadacz GTX-a Titana mógł liczyć na najwyższą wydajność w grach od samego początku 2013 roku. Średnio była ona lepsza o 45% od tej, którą mógł się cieszyć nasz hipotetyczny użytkownik #0 (posiadacz GTX-a 680 / HD 7970 GHz). Średnia wydajność jednak niewiele mówi i najlepiej posłużyć się przemawiającymi do wyobraźni przykładami.
Luty 2013 – kto gra w wówczas najnowszą, trzecią część Crysisa w najwyższych ustawieniach jakości obrazu? Tylko użytkownik Titana, który osiągał 45 kl./s, podczas gdy wszystkie inne GPU na rynku nie zapewniały więcej niż 30 kl./s. Niedługo potem pojawił się Tomb Raider. Wszyscy po włączeniu ustawienia Ultimate z techniką TressFX oglądają nie więcej niż 40 kl./s, podczas gdy posiadacz Titana gra już w pełni komfortowo w 60 kl./s. Pomimo dużego wydatku pierwsi użytkownicy Titana zostali wynagrodzeni solidną dawką rozrywki w najwyższych ustawieniach jakości obrazu i w zadowalającej płynności.
Użytkownik #2: GeForce GTX 680 / Radeon HD 7970 GHz -> GeForce GTX 780
W drugim przypadku użytkownik GTX-a 680 / HD 7970 GHz nie decyduje się na zmianę na Titana, bo stwierdza, że koszty są zbyt duże. Dwa miesiące później postanawia jednak przesiąść się już na GTX-a 780 i pozostać z nim aż do dzisiaj.
1. zmiana (luty 2013 r.) | GTX 680 / HD 7970 GHz | GeForce GTX 780 | Rezultat zmiany |
---|---|---|---|
Wartość sprzętu | 1200 zł (używany) | 2600 zł (nowy) | –1400 zł |
Cena GTX-a 780 początkowo wynosiła około 2600 zł, ale po odsprzedaniu starszego sprzętu okazywało się, że cała modernizacja kosztowała już „tylko” 1400 zł.
Całkowity koszt zmian GPU użytkownika #2 |
---|
1400 zł |
Użytkownik GTX-a 780 do dzisiaj ma do dyspozycji GPU o całkiem niezłej wydajności, choć nie jest to już absolutna czołówka. Średnio wydajność odstaje od osiągów Titana o mniej więcej 10%, ale sama modernizacja kosztowała niemal 1,5 tys. zł.
Oczywiście, i tym razem pod uwagę trzeba wziąć czas. Kiedy posiadacz Titana grał już w najnowsze tytuły w najwyższych ustawieniach jakości obrazu, użytkownik #2 wciąż czekał na GTX-a 780 (końcówka maja). Entuzjasta #2 zapłacił więc mniej, ale w najwyższych ustawieniach mógł zagrać dopiero 3 miesiące później, a ponadto nigdy tak naprawdę nie osiągnął takiej płynności, jaką zapewniał Titan.
Użytkownik #3: GeForce GTX 680 / Radeon HD 7970 GHz -> GTX 780 -> GTX 780 Ti
Użytkownik #3 postąpił podobnie jak #2, czyli początkowo stwierdził, że GeForce GTX Titan za 4000 zł jest dla niego za drogi, i postanowił kupić GTX-a 780.
1. zmiana (maj 2013 r.) | GTX 680 / HD 7970 GHz | GeForce GTX 780 | Rezultat zmiany |
---|---|---|---|
Wartość sprzętu | 1200 zł (używany) | 2600 zł (nowy) | –1400 zł |
Najciekawsze jest to, co było potem. Ledwie pół roku później wydajność siedemsetosiemdziesiątki przestała mu wystarczać i postanowił skorzystać z możliwości przesiadki na najwydajniejszego Keplera – GTX-a 780 Ti. W międzyczasie po tym, jak na rynek trafiły R9 290X, R9 290 i właśnie GTX 780 Ti, jego karta znacznie straciła na wartości.
2. zmiana (listopad 2013 r.) | GeForce GTX 780 | GeForce GTX 780 Ti | Rezultat zmiany |
---|---|---|---|
Wartość sprzętu | 1300 zł (używany) | 2800 zł (nowy) | –1500 zł |
Z początkowej kwoty 2600 zł, wydanej w maju, udało się odzyskać już tylko połowę. Po tym trzeba było jeszcze dołożyć 1,5 tys. zł na model GTX 780 Ti.
Całkowity koszt zmian GPU użytkownika #3 |
---|
2900 zł |
Ostatecznie użytkownik #3 na modernizację swojego GPU przeznaczył już 2900 zł, a więc kwotę bardzo podobną do tej, którą wydał użytkownik Titana (#1) – ten który miał go od samego początku.
A jak kształtowała się wydajność w czasie?
Różnicę w wydajności pomiędzy GTX-em 780 Ti a Titanem stosunkowo trudno wychwycić. Ogółem użytkownik #3 nie zrobił na swoich modernizacjach interesu życia. Nie dość, że wydał na modernizację prawie 3000 zł, to jego karta zapewniała co najwyżej wydajność Titana i miała „tylko” 3 GB pamięci VRAM.
12 entuzjastów – ścieżki 4–6
Użytkownik #4: GeForce GTX 680 / Radeon HD 7970 GHz -> GTX 780 -> GTX 970
Użytkownik #4 na początku postanowił zrobić podobnie jak użytkownicy #2 oraz #3, czyli po tym, jak pojawił się GTX Titan, zaczekać 3 miesiące na bardziej przystępną propozycję i kupić dopiero co wprowadzoną siedemsetosiemdziesiątkę.
1. zmiana (maj 2013 r.) | GTX 680 / HD 7970 GHz | GeForce GTX 780 | Rezultat zmiany |
---|---|---|---|
Wartość sprzętu | 1200 zł (używany) | 2600 zł (nowy) | –1400 zł |
Użytkownik #4 oparł się też pokusie kupienia GTX-a 780 Ti, wprowadzonego w listopadzie 2013 roku, ale we wrześniu 2014 zapragnął zmienić kartę na nowego Maxwella, GTX-a 970. Mniejsza o to, czy kierowała nim wydajność karty czy jej kultura działania, czy też po prostu chęć zmian.
2. zmiana (wrzesień 2014 r.) | GeForce GTX 780 | GeForce GTX 970 | Rezultat zmiany |
---|---|---|---|
Wartość sprzętu | 1000 zł (używany) | 1500 zł (nowy) | –500 zł |
GeForce GTX 780 we wrześniu 2014 roku był wart na rynku wtórnym już tylko 1000 zł, ale na szczęście GTX 970 też do bardzo drogich nie należy, więc na obie zmiany kart użytkownik #4 wydał niecałe 2000 zł.
Całkowity koszt zmian GPU użytkownika #4 |
---|
1900 zł |
Wykres wydajności w czasie też pokazuje to, co było do przewidzenia: tak naprawdę wymiana GTX-a 780 na GTX-a 970 nie przyniosła jakiegoś ogromnego skoku wydajności, a wydana na obie modernizacje kwota odzwierciedla średnią wydajność sprzętu użytkownika #4.
Użytkownik #5: GeForce GTX 680 / Radeon HD 7970 GHz -> GTX 780 -> GTX 980
Użytkownik #5 to kolejna osoba, która w lutym 2013 roku stwierdziła, że cena GTX-a Titana (4000 zł) jest zbyt wysoka, a która w maju postanowiła kupić wartego ponad 2,5 tys. zł GTX-a 780.
1. zmiana (maj 2013 r.) | GTX 680 / HD 7970 GHz | GeForce GTX 780 | Rezultat zmiany |
---|---|---|---|
Wartość sprzętu | 1200 zł (używany) | 2600 zł (nowy) | –1400 zł |
Z GTX-em 780 w komputerze użytkownik #5 grał do września 2014 roku, kiedy to przyszła pora na kolejną drogą kartę. Zmienił wtedy GTX-a 780 na czołowego Maxwella, model GeForce GTX 980, kosztujący 2600 zł.
2. zmiana (wrzesień 2014 r.) | GeForce GTX 780 | GeForce GTX 980 | Rezultat zmiany |
---|---|---|---|
Wartość sprzętu | 1000 zł (używany) | 2600 zł (nowy) | –1600 zł |
Różnica pomiędzy ceną GTX-a 980 a ceną sprzedaży używanego GTX-a 780 pozwoliła przeprowadzić drugą modernizację za 1600 zł, co w okresie 3 lat daje 3 tys. zł na zmiany kart graficznych.
Całkowity koszt zmian GPU użytkownika #5 |
---|
3000 zł |
Wykres wydajności w czasie pokazuje, że użytkownik #5 od lutego 2013 roku do września 2014 roku (a więc przez 1,5 roku) najpierw miał w komputerze kartę, która zawsze była nieco gorsza od GTX Titana, a potem, w ostatnich kilku miesiącach tego okresu, po zmianie na GTX-a 980 – nieco szybszą.
Użytkownik #6: GeForce GTX 680 / Radeon HD 7970 GHz -> GTX 780 -> GTX 780 Ti -> GTX 980
Użytkownik #6 to istny wariat, który w pogoni za wydajnością zrobi wszystko, ale zrobi to bez głębszych przemyśleń. Należy zacząć od tego, że użytkownik #6, tak jak #2, #3, #4 oraz #5, patrząc na cenę Titana w lutym 2013 roku, puka się w głowę i postanawia poczekać na tańsze opcje. W maju nadchodzi okazja przesiadki na GTX-a 780.
1. zmiana (maj 2013 r.) | GTX 680 / HD 7970 GHz | GeForce GTX 780 | Rezultat zmiany |
---|---|---|---|
Wartość sprzętu | 1200 zł (używany) | 2600 zł (nowy) | –1400 zł |
Wydajność tego ostatniego przestaje mu jednak wystarczać już po pół roku i postanawia w listopadzie wymienić swoją siedemsetosiemdziesiątkę na tę z dopiskiem Ti w nazwie.
2. zmiana (listopad 2013 r.) | GeForce GTX 780 | GeForce GTX 780 Ti | Rezultat zmiany |
---|---|---|---|
Wartość sprzętu | 1300 zł (używany) | 2800 zł (nowy) | –1500 zł |
GeForce GTX 780 Ti sprawuje się znakomicie, ale niecały rok później pojawia się czołowy Maxwell, GeForce GTX 980, który zawraca użytkownikowi #6 w głowie. Przecież znowu można mieć nieco wyższą wydajność i o 33% więcej pamięci VRAM do dyspozycji, prawda?
3. zmiana (wrzesień 2014 r.) | GeForce GTX 780 Ti | GeForce GTX 980 | Rezultat zmiany |
---|---|---|---|
Wartość sprzętu | 1200 zł (używany) | 2600 zł (nowy) | –1400 zł |
Trzy modernizacje karty graficznej w ciągu ostatnich 3 lat to sporo i nie mogły się nie odbić mocno na zawartości portfela. Użytkownik #6, który w lutym 2013 roku popukał się w głowę na widok ceny GTX-a Titana, wydał jednak łącznie na wszystkie modernizacje aż 4300 zł.
Całkowity koszt zmian GPU użytkownika #6 |
---|
4300 zł |
A wydajność?
Wydatek w wysokości 4300 zł w gruncie rzeczy nie za bardzo się zwrócił. Ten przykładowy zapaleniec wydał więcej, niż kosztował nowy GeForce GTX Titan, a przecież przez sporą część analizowanego okresu (9 miesięcy, od lutego 2013 roku do listopada) cieszył się wydajnością gorszą od tej, którą zapewniał 6-gigabajtowy potwór Nvidii. Dopiero pod koniec roku, po kupieniu modelu GTX 780 Ti, jego sprzęt zaczął delikatnie wyprzedzać konfigurację z Titanem. Następna zmiana karty graficznej, z GTX-a 780 Ti na GTX-a 980, przyniosła kolejny wzrost wydajności.
12 entuzjastów – ścieżki 7–9
Użytkownik #7: GeForce GTX 680/Radeon HD 7970 GHz -> Radeon R9 290X
Użytkownik #7 nie wpadł w szał zakupów na początku 2013 roku i cierpliwie czekał. W lutym zrezygnował z kupna GTX-a Titana za 4000 zł (około 2800 zł po odsprzedaniu starszego sprzętu), a 3 miesiące później nie przekonał go też GeForce GTX 780 za mniej więcej 2600 zł.
Po prostu miał na modernizację tylko nieco ponad 2000 zł. Nowo wprowadzony na rynek Radeon R9 290X nieco zaostrzył jego apetyt, ale ponieważ wersje referencyjne praktycznie nie nadawały się do użytku, postanowił poczekać na modele niereferencyjne. W międzyczasie pojawił się jeszcze GeForce GTX 780 Ti, ale jego cena, przeszło 2,5 tys. zł, nie zachęciła użytkownika #7 do modernizacji.
Styczeń przyniósł przełom: w końcu pojawiła się odpowiadająca mu oferta, czyli wydajna karta graficzna za nieco ponad 2000 zł. Strzałem w dziesiątkę okazała się jedna z niereferencyjnych wersji Radeona R9 290X za mniej więcej 2150 zł.
1. zmiana (styczeń 2014 r.) | GTX 680 / HD 7970 GHz | Radeon R9 290X | Rezultat zmiany |
---|---|---|---|
Wartość sprzętu | 800 zł (używany) | 2150 zł (nowy) | –1350 zł |
Wcześniejszą kartę, czyli GTX-a 680 / HD 7970 GHz, użytkownik #7 sprzedał, aby pokryć część kosztów modernizacji. Odzyskanie 800 zł dzięki sprzedaży dotychczasowego sprzętu pozwoliło zmniejszyć koszt wymiany karty graficznej do niespełna 1400 zł.
Całkowity koszt zmian GPU użytkownika #7 |
---|
1350 zł |
Stosunkowo mały koszt modernizacji wcale jednak nie oznacza, że użytkownik #7 ubił interes życia. O co chodzi? Wystarczy spojrzeć na wykres.
Oszczędność odbiła się na jakości zabawy we wcześniejszych 3 latach. Podczas gdy użytkownik #2, posiadacz GTX-a Titana, czy użytkownik #3, posiadacz GTX-a 780, od prawie roku grali we wszystko w najwyższych ustawieniach jakości obrazu, użytkownik #7 wciąż miał w komputerze czołową kartę „poprzedniej generacji”, czyli GTX-a 680 lub Radeona HD 7970 GHz, i zwyczajnie nie mógł sobie pozwolić na włączanie graficznych fajerwerków.
Innymi słowy, użytkownik #7 faktycznie zapłacił za całą modernizację dość mało, lecz odbiło się to na wrażeniach wizualnych w całym 2013 roku. Ominęła go przyjemność gry w najwyższych ustawieniach w takie produkcje, jak Crysis 3, Tomb Raider, Bioshock: Infinite, Metro: Last Light, Battlefield 4 i Assassin's Creed IV: Black Flag, i dopiero od początku 2014 roku mógł nadrabiać zaległości.
Użytkownik #8: GeForce GTX 680 / Radeon HD 7970 GHz -> Radeon R9 290X -> GeForce GTX 980
Użytkownik #8 to przez większość czasu kopia użytkownika #7. Również nie mógł uruchamiać licznych gier w najwyższych ustawieniach jakości obrazu, bo cały 2013 rok używał GTX-a 680 / HD 7970 GHz. Dopiero na początku 2014 roku udało mu się zamienić wysłużoną kartę na nowego, niereferencyjnego Radeona R9 290X.
1. zmiana (styczeń 2014 r.) | GTX 680 / HD 7970 GHz | Radeon R9 290X | Rezultat zmiany |
---|---|---|---|
Wartość sprzętu | 800 zł (używany) | 2150 zł (nowy) | –1350 zł |
Użytkownik #8 przez całą pierwszą połowę 2014 roku nadrabiał zaległości w grach względem tych, którzy wcześniej zdecydowali się na Titany lub siedemsetosiemdziesiątki. W drugiej połowie roku pojawił się GeForce GTX 980 i użytkownik #8 zdecydował się na zmianę, która miała mu zapewnić dwie korzyści: odczuwalne zwiększenie wydajności i mniejszą głośność komputera. Wybór padł na dużego Maxwella, GTX-a 980.
2. zmiana (wrzesień 2014 r.) | Radeon R9 290X | GeForce GTX 980 | Rezultat zmiany |
---|---|---|---|
Wartość sprzętu | 1000 zł (używany) | 2600 zł (nowy) | –1600 zł |
Użytkownik #8 w ciągu niecałego roku przeprowadził dwie modernizacje, które łącznie kosztowały go blisko 3000 zł.
Całkowity koszt zmian GPU użytkownika #8 |
---|
2950 zł |
A co widać na wykresach wydajności?
Powtarza się scenariusz, z którym zetknęliśmy się w przypadku użytkownika #7, czyli cały 2013 rok bez najwyższych ustawień w grach, później powolne nadrabianie zaległości i w końcu, od września 2014 roku, najwyższa dostępna wydajność.
Użytkownik #9: GeForce GTX 680 / Radeon HD 7970 GHz -> Radeon R9 290
Użytkownik #9, podobnie jak #8, miał ograniczone fundusze na modernizację swojego sprzętu. Wymiana wyjściowej konfiguracji, czyli GTX-a 680 / HD 7970 GHz, na Titana w lutym 2013 roku albo GTX-a 780 w maju nie wchodziła w grę. Z tego samego powodu w listopadzie użytkownik ten zrezygnował również z GTX-a 780 Ti. Dopiero wprowadzone w styczniu pierwsze niereferencyjne Radeony R9 290 (bez iksa w nazwie) za mniej więcej 1600 zł zwróciły jego uwagę.
1. zmiana (styczeń 2014 r.) | GTX 680 / HD 7970 GHz | Radeon R9 290 | Rezultat zmiany |
---|---|---|---|
Wartość sprzętu | 800 zł (używany) | 1600 zł (nowy) | –800 zł |
Swoją poprzednią kartę użytkownik #9 odsprzedał za mniej więcej 800 zł i do nowego, niereferencyjnego Radeona R9 290 musiał dołożyć 800 zł. To najtańsza modernizacja w naszym ustawieniu: zakładamy, że użytkownik #8 kupił Radeona R9 290 w styczniu 2014 roku i przez wcześniejsze 3 lata była to jedyna karta graficzna w jego komputerze.
Całkowity koszt zmian GPU użytkownika #9 |
---|
800 zł |
A jaką wydajność użytkownik #9 osiągał w tym czasie w poszczególnych grach?
Najtańsza modernizacja zapewniła, jak się można było spodziewać, najmniej odczuwalne rezultaty. Po pierwsze, użytkownik #8 przez cały 2013 rok był w zasadzie wyłączony z zabawy w najwyższych ustawieniach jakości obrazu. To się zmieniło dopiero w styczniu 2014 roku, czyli po tym, jak kupił R9 290, ale spojrzenie na wykres ujawnia, że tak naprawdę przesiadka (przypomnijmy: z GTX-a 680 / HD 7970 GHz na Radeona R9 290) zapewniła mu wydajność mniej więcej w połowie drogi między osiągami jego wcześniejszej karty i GTX Titana.
Niemniej była to bardzo tania (choć wolna) i często wybierana droga.
12 entuzjastów – ścieżki 10–12
Użytkownik #10: GeForce GTX 680 / Radeon HD 7970 GHz -> Radeon R9 290 -> GeForce GTX 970
Przykład użytkownika #10 to do pewnego momentu kopia postępowania użytkowników #8 i #9. Ten entuzjasta przez długi czas miał w komputerze jedną kartę z pary GTX 680 / HD 7970 GHz i nie zmieniło się to aż do stycznia 2014 roku, kiedy to pojawił się przystępny niereferencyjny Radeon R9 290, za którego w ostatecznym rozrachunku użytkownik #10 musiał zapłacić około 800 zł (po odsprzedaży poprzedniej karty).
1. zmiana (styczeń 2014 r.) | GTX 680 / HD 7970 GHz | Radeon R9 290 | Rezultat zmiany |
---|---|---|---|
Wartość sprzętu | 800 zł (używany) | 1600 zł (nowy) | –800 zł |
Jednak podobnie jak użytkownik #9 zauważył on, że wydajność karty tak naprawdę wciąż nie jest na absolutnie najwyższym poziomie. Korzyści po przesiadce z GTX-a 680 / HD 7970 GHz były ewidentne, ale osiągi w grach wciąż nie mogły równać się z tymi, które zapewniały swoim posiadaczom Titany, GTX-y 780 czy GTX-y 780 Ti. Nic dziwnego, w końcu tamci zapłacili za modernizację dużo więcej.
Ostatecznie użytkownik #10 korzystał z niereferencyjnego Radeona R9 290 do września 2014 roku, kiedy to pojawiła się seria GeForce GTX 900. Postanowił odsprzedać 9-miesięczną dwieściedziewięćdziesiątkę i kupić GTX-a 970, aby przynajmniej osiągnąć wydajność Titana.
2. zmiana (wrzesień 2014 r.) | Radeon R9 290 | GeForce GTX 970 | Rezultat zmiany |
---|---|---|---|
Wartość sprzętu | 800 zł (używany) | 1500 zł (nowy) | –700 zł |
Obie zmiany w ciągu 3 lat pochłonęły około 1,5 tys. zł.
Całkowity koszt zmian GPU użytkownika #10 |
---|
1500 zł |
To całkiem niedużo, biorąc pod uwagę, że użytkownik #10 ostatecznie zapewnił sobie upragnioną, najwyższą wydajność.
Przez dłuższy czas (ponad 1,5 roku) użytkownik #10 cieszył się sporo niższą wydajnością niż posiadacze takich kart, jak GTX Titan, 780, 780 Ti, R9 290X, a sytuację poprawił dopiero zakup GTX-a 970 we wrześniu 2014 roku.
Użytkownik #11: GeForce GTX 680 / Radeon HD 7970 GHz -> GeForce GTX 780 Ti
Użytkownik #11 także długo czekał na swoją upragnioną modernizację GeForce'a GTX 680 / Radeona HD 7970 GHz. W lutym 2013 roku nie było go stać na GTX-a Titana, a 3 miesiące później – na GTX-a 780. Czekał, zbierał gotówkę i mimo że miał już potrzebne środki, pojawienie się we wrześniu referencyjnych Radeonów R9 290/290X z wiadomych względów nie sprawiło, że od razu pobiegł do sklepu. Wykorzystał natomiast okazję, jaką była szybka odpowiedź Nvidii w postaci gotowej już gamy modeli GTX 780 Ti.
1. zmiana (listopad 2013 r.) | GTX 680 / HD 7970 GHz | GeForce GTX 780 Ti | Rezultat zmiany |
---|---|---|---|
Wartość sprzętu | 900 zł (używany) | 2800 zł (nowy) | –1900 zł |
Odsprzedaż poprzedniej karty graficznej pozwoliła użytkownikowi #11 zamknąć całkowity koszt wymiany GPU w niecałych 2 tys. zł.
Całkowity koszt zmian GPU użytkownika #11 |
---|
1900 zł |
Na jaką wydajność mógł liczyć przez ostatnie 3 lata posiadacz GTX-a 780 Ti?
Wysoką, ale dopiero od końcówki 2013 roku. Wcześniej posiadacze GTX-ów Titanów i 780 grali już w najwyższych ustawieniach jakości obrazu w takie hity, jak Crysis 3, Tomb Raider, najnowszy Bioshock czy wreszcie Metro: Last Light. Użytkownik #11 najwyższe ustawienia graficzne mógł włączyć 9 miesięcy później od innych, choć od tamtej pory cieszył się wydajnością minimalnie większą od tej, którą zapewniał GTX Titan.
Użytkownik #12: GeForce GTX 680 / Radeon HD 7970 GHz -> GTX 780 Ti -> GTX 980
Użytkownik #12 na początku postąpił podobnie jak użytkownik #11. Długo nie mógł sobie pozwolić na żadną zadowalającą go opcję, aż do końcówki 2013 roku, kiedy to pojawił się GeForce GTX 780 Ti.
1. zmiana (listopad 2013 r.) | GTX 680 / HD 7970 GHz | GeForce GTX 780 Ti | Rezultat zmiany |
---|---|---|---|
Wartość sprzętu | 900 zł (używany) | 2800 zł (nowy) | –1900 zł |
Używany od listopada 2013 roku do września 2014 roku GeForce GTX 780 Ti być może już się znudził albo przeważyła chęć pobawienia się nowym sprzętem, bo użytkownik #12 postanowił pod koniec trzeciego kwartału przeprowadzić następną modernizację, by osiągnąć kilkuprocentowy wzrost wydajności i jednocześnie nieco zmniejszyć głośność komputera. Postanowił więc sprzedać prawie rocznego GTX-a 780 Ti i kupić dużego Maxwella, GTX-a 980.
2. zmiana (wrzesień 2014 r.) | GeForce GTX 780 Ti | GeForce GTX 980 | Rezultat zmiany |
---|---|---|---|
Wartość sprzętu | 1200 zł (używany) | 2600 zł (nowy) | –1400 zł |
Ceny kart GeForce GTX 780 Ti po tym, jak pojawił się Maxwell, gwałtownie spadły, a przez to użytkownik #12 w modernizację sprzętu (zakup GTX-a 980 za 2600 zł) musiał włożyć prawie 1,5 tys. zł, więc przez ostatnie 3 lata wydał na zmiany GPU 3000 zł z niewielkim okładem.
Całkowity koszt zmian GPU użytkownika #12 |
---|
3300 zł |
Modernizacje sprawiły, że przez ostatnie 3 lata mógł on liczyć na taką oto wydajność:
Innymi słowy, na początku (od lutego 2013 roku do listopada) cieszył się wydajnością o wiele niższą od tej, którą zapewniał w tamtym czasie GTX Titan oraz GTX 780. Sytuacja wyglądała nieco inaczej w okresie od grudnia 2013 roku do września 2014 roku, kiedy to komputer użytkownika #12 osiągał już dużo wyższą wydajność od poprzedniej konfiguracji (GTX 680 / HD 7970 GHz), ale w istocie tylko minimalnie lepszą od tej, którą dużo wcześniej zapewniał swoim posiadaczom GTX Titan.
Prawdopodobnie właśnie to skłoniło go do kolejnej przesiadki, z GTX-a 780 Ti na GTX-a 980.
Podsumowanie okresu 1. kw. 2012 r. – 1. kw. 2015 r. (architektura, dodatki, podkręcanie)
Podsumowanie rynku najwydajniejszych kart graficznych w okresie od pierwszego kwartału 2012 roku do dzisiaj zaczniemy od kwestii najbardziej ogólnych, by powoli przejść do omówienia poszczególnych produktów.
Architektura – AMD kontra Nvidia
Obie firmy wykazują całkowicie odmienne podejście do architektury swoich produktów.
AMD stawia na jedną architekturą, która została stworzona z myślą o uniwersalności i możliwie dobrym skalowaniu w górę, tak aby kolejne jednostki obliczeniowe można było dodawać w miarę bezboleśnie. Graphics Core Next, architektura zastosowana po raz pierwszy pod koniec 2011 roku w Radeonie HD 7970, spełnia te założenia. Po pierwsze, uniwersalność jednostek obliczeniowych w Radeonach faktycznie jest duża: karty graficzne AMD można wykorzystać zarówno do gier, jak i do obliczeń (np. OpenCL). Na przykład długo mogły być używane także do zarabiania kryptowaluty, dzięki czemu cierpliwi mogli po odpowiednim czasie odzyskać kwotę przeznaczoną na sprzęt.
AMD stawia zresztą na łatwe skalowanie w obie strony oraz długą kompatybilność oprogramowania i gier z obecnie stosowaną architekturą. Trzeba jednak powiedzieć, że dobra skalowalność układów AMD jest dostępna tylko przy założeniu, że kolejne procesy technologiczne będą wprowadzane w odpowiednich odstępach czasu. Omawiany wcześniej Radeon R9 290X jest bardzo wyżyłowaną konstrukcją już w obecnym procesie, 28 nm, i problemem staje się efektywne schłodzenie układu: można to zrobić tanio i źle (referencyjne wersje) albo drożej i dobrze (niereferencyjne wersje czy wszelkiego rodzaju układy chłodzenia cieczą).
Ogółem AMD stara się cały czas wykorzystywać jedną uniwersalną architekturę i rozwijać ją tylko nieznacznie, cały czas trzymając się podstawowych założeń Graphics Core Next.
Nvidia przyjmuje nieco inne podejście. Ta firma miała już uniwersalną architekturę, która dobrze nadawała się zarówno do gier, jak i obliczeń: Fermi. Efekt w postaci bardzo gorącego GTX-a 480 Czytelnicy w większości na pewno pamiętają, a usprawnienia tej architektury, które przyniósł GeForce GTX 580, niewiele w tej kwestii zmieniły. Od tamtej pory Nvidia zrezygnowała z uniwersalności i doszła do wniosku, poniekąd słusznego, że graczom zależy na wydajności w grach, a nie w programach użytkowych. I tak rozpoczęło się odchudzanie kart tej firmy z możliwości obliczeniowych. Pierwszym krokiem w tym kierunku był omawiany wcześniej GeForce GTX 680, zbudowany w architekturze Kepler. Ta architektura, stosowana przez Nvidię od pierwszego kwartału 2012 roku do czwartego kwartału 2013 roku, w grach sprawowała się, co jasne, lepiej niż Fermi, ale straciła trochę wigoru w innych obliczeniach. GeForce GTX 580 przeganiał pod tym względem GTX-a 680.
Architektura Maxwell, wprowadzona przez Nvidię we wrześniu ubiegłego roku pod postacią modeli GeForce GTX 970 oraz GTX 980 (a wcześniej GTX-a 750 Ti, kierowanego do mniej wymagających graczy), przyniosła pogłębienie tej koncepcji. Maxwell bez najmniejszego problemu zdobył koronę króla wydajności w grach komputerowych: 2048 procesorów strumieniowych w nowej architekturze okazało się szybszych od 2880 w architekturze Kepler. Efektywność energetyczna Maxwella jest bardzo wyśrubowana i pozwala zdobywać niedostępne dotychczas dla wydajnych kart graficznych tereny, bo rdzeń GM204 w GTX-ie 980 mieści się na 400 mm2 i choć jego TDP wynosi 165 W, w grach wyprzedza on 550-milimetrowego Radeona R9 290X o TDP określonym na 290 W.
Wydajność energetyczna pozwala Nvidii na dwie rzeczy. Prawdopodobnie właśnie ona ma obecnie większe możliwości dodawania kolejnych jednostek obliczeniowych w przyjętym budżecie energetycznym. Chyba nikt, poznawszy możliwości architektury Maxwell, nie ma wątpliwości, że Nvidia ma duży zapas mocy, co oznacza, że większy i znacznie potężniejszy rdzeń od GM204, na przykład GM200, tylko czeka na swoją kolej w walce o rynek kart graficznych dla najbardziej wymagających.
Które podejście jest lepsze: Nvidii czy AMD? Sytuacja na rynku kart graficznych pokazuje, że graczom bardziej do gustu przypadła strategia tej pierwszej: ciche i chłodne, a zarazem wydajne karty to coś, czego szukają dzisiejsi użytkownicy komputera z myślą o wirtualnej rozrywce. Nastawienie AMD na uniwersalność w architekturze GCN nie jest, naszym zdaniem, złym pomysłem, ale powiedzmy sobie szczerze: gracze przede wszystkim grają, więc możliwość używania Radeona do zaawansowanych obliczeń w warunkach domowych słabo przemawia do ich świadomości. Ci zaś, którzy zajmują się obliczeniami profesjonalnie, w ogóle nie zwracają uwagi na standardowe układy GeForce czy Radeon i kierują wzrok raczej w stronę Tesli, Quadro czy FirePro.
Najwydajniejsza karta graficzna na rynku – czy to ważne?
Mówi się, że temu, kto ma w ofercie najwydajniejszą kartę graficzną na rynku, łatwiej jest sprzedawać układy również z innych segmentów. Innymi słowy, zgodnie z tą teorią najważniejsze na wykresie są te słupki, które są najdłuższe/najwyższe, i jeśli potencjalny użytkownik zobaczy, że GeForce GTX 980 jest najszybszy, to niezależnie od grubości portfela kupi... GeForce'a. Czy to faktycznie jest regułą? Trudno powiedzieć. Wydaje nam się to mało prawdopodobne, tym bardziej że w niniejszym artykule omawiamy to, z jakich kart graficznych korzystają „entuzjaści”.
Niewątpliwie to, że firma ma w swojej ofercie najszybszą kartę na rynku, wpływa pozytywnie na świadomość użytkowników komputera. Najlepszym przykładem jest GeForce GTX Titan. Ta karta swego czasu wyprzedzała najszybsze spośród pozostałych konstrukcji o mniej więcej 50% i tym samym pozostała w świadomości graczy do dzisiaj. Ile to razy, na przykład w komentarzach pod publikacją z wymaganiami sprzętowymi jakiejś gry, ktoś rzucił coś o monstrualnie wydajnym sprzęcie, używając przy tym nazwy GTX Titan...
A jakie karty faktycznie były najszybsze przez ostatnie 36 miesięcy?
Jeśli pod uwagę bierzemy pierwszy kwartał 2012 roku, to nie wypada nie wspomnieć o Radeonie HD 7970, wprowadzonym tak naprawdę w grudniu 2011 roku. Dzięki niemu AMD przez 3 miesiące rządziło i dzieliło na wykresach wydajności, aż do marca 2012 roku, kiedy to pojawił się GeForce GTX 680, który nieznacznie go wyprzedził (o mniej więcej 5%).
Radość Nvidii nie trwała długo, bo tylko do czerwca tego samego roku. Wtedy pojawiła się nowa wersja modelu HD 7970 w postaci HD 7970 GHz, który pokonał GTX-a 680 o mniej więcej 5%. Radeon HD 7970 GHz prowadził na wykresach przez następne 8 miesięcy.
Te zwycięstwa w wyścigu o miano najwydajniejszej konstrukcji na rynku były nieznaczne. Mimo że tę najszybszą dało się wskazać bez większych trudności, przez pewien czas można było mieć wrażenie, jakby AMD i Nvidia umówiły się, aby projektować swoje kolejne karty z myślą o konkretnych osiągach. W lutym 2013 roku to się zmieniło. Właśnie wtedy nadszedł tytan wśród kart graficznych, czyli GeForce GTX Titan. Czołowy produkt w ofercie Nvidii wskazał konkurencji miejsce w szeregu: wyprzedził Radeona HD 7970 GHz o mniej więcej 40%. To już było naprawdę bezdyskusyjne zwycięstwo.
W późniejszym okresie, w październiku tego samego roku, AMD kontratakowało Radeonem R9 290X. Nowa konstrukcja „czerwonych”, zapowiadana jako pogromca Titana, nie sprostała jednak zadaniu. GeForce GTX Titan obronił swoją pozycję najwydajniejszej karty na rynku (w najlepszym razie, w rozdzielczości 4K, Radeon zaledwie mu dorównywał).
Nvidia chyba nie mogła sobie pozwolić na choćby cień wątpliwości, kto ma w swojej ofercie najszybszy sprzęt, więc 2 tygodnie po Radeonie R9 290X na głowy graczy spadła prawdziwa bomba, jaką był GeForce GTX 780 Ti. Nowość, oparta na tym samym rdzeniu co GeForce GTX Titan, wyprzedziła zarówno Titana, jak i R9 290X o 10%. Od listopada 2013 roku aż do września 2014 roku to właśnie GeForce GTX 780 Ti zajmował pierwsze miejsca na wykresach wydajności i zaprzątał myśli graczy z całego świata.
AMD na tym etapie postanowiło już nie walczyć i po prostu przygotować się do wprowadzenia następnej generacji kart graficznych, podczas gdy Nvidia zaatakowała ponownie, aby jeszcze umocnić swoją pozycję. Na 3 miesiące przed końcem 2014 roku, przed okresem świątecznym, pojawił się w sklepach GeForce GTX 980, zbudowany w architekturze Maxwell, który zawstydził nawet GTX-a 780 Ti. Nowość, oparta na rdzeniu GM204, wyprzedziła siedemsetosiemdziesiątkę z Ti w nazwie co prawda tylko o kilka procent, ale zrobiła to przy niższym o ponad 100 W poborze energii.
Dzisiaj, w marcu 2015 roku, możemy śmiało powiedzieć, że Nvidia wygrała wyścig o miano producenta najwydajniejszych kart graficznych w ostatnich 3 latach. Radeony były górą przez 11 miesięcy (3 miesiące panowania HD 7970 + 8 miesięcy dominacji HD 7970 GHz), Nvidia zaś oferowała najszybsze na rynku układy przez pozostałe 24–25 miesięcy. Odkąd pojawił się GeForce GTX Titan (luty 2013 roku), „czerwoni” nie zdołali wprowadzić na rynek Radeona, który byłby zdolny walczyć o koronę króla wydajności.
Zresztą obecnie aż cztery najszybsze karty graficzne na rynku to właśnie produkty Nvidii: od GTX-a 970 poprzez GTX Titana i 780 Ti aż do GTX-a 980. To się nie zmieni przynajmniej do czasu, aż pojawią się Radeony R9 z serii 300.
Dodatki do kart graficznych (gry, programy i inne)
Podczas ostatnich 3 lat okazało się, że sama karta graficzna i jej wydajność to nie wszystko. Zazwyczaj w pakiecie w nową kartą dostajemy jakieś dodatki, ale nie mówimy tu, oczywiście, o tak podstawowych elementach, jak przedłużki i przejściówki (z HDMI na DVI). Chodzi bardziej o dodatki w postaci programów czy gier, które mają zachęcić do kupienia danego produktu.
Gry
Pierwsze kroki w kierunku zwiększenia atrakcyjności swoich produktów AMD poczyniło za pomocą akcji promocyjnej Never Settle. Przez ostatnie 3 lata „czerwoni” dołączyli do kart graficznych mnóstwo gier, w tym wiele hitów. Nowo upieczony użytkownik jednej z kart Radeon HD 7970 GHz czy – nieco później – z serii R9 200 mógł liczyć na kilka tytułów, wśród których były: Crysis 3, Bioshock: Infinite, Tomb Raider, Far Cry 3, Far Cry 3: Blood Dragon, Hitman: Absolution, Sleeping Dogs, Deus Ex: Human Revolution, DiRT 3, DiRT Showdown, Devil May Cry, Sniper Elite V2 i Saints Row IV. Jedne były bardziej popularne, inne mniej, ale można było praktycznie dowolnie przebierać w ofercie, także pośród wielkich hitów, nie wydając ani złotówki więcej.
Nvidia przez długi czas nie odpowiadała na tę promocję, a gdy już to zrobiła, zrobiła to w słabym stylu w porównaniu z działaniami AMD. Użytkownicy czołowych GeForce'ów w pewnym momencie mogli do swoich kart wybrać trzy gry: Assassin's Creed IV: Black Flag, Batman: Arkham Origins i Splinter Cell: Blacklist. W tym porównaniu tylko czwarta część Assassin's Creed wyglądała dobrze na tle natłoku hitów w ofercie AMD (Crysis 3, Bioshock: Infinite, Tomb Raider, Far Cry 3).
W późniejszym okresie AMD, gdy odświeżało gamę Radeonów HD (i zaoferowało je ponownie jako Radeony R9), jeszcze wydłużyło listę gier dostępnych w promocji. Najpopularniejsze spośród tych, które doszły, to: Thief, Alan Wake, Total War: Shogun 2 i Just Cause 2.
W tym czasie Nvidia przestała oferować gry, a zamiast tego zaczęła dodawać do swoich produktów... wirtualne dobra w tytułach „free to play” w ramach promocji o tej samej nazwie. Nabywcy GeForce'a mogli liczyć między innymi na wirtualne złoto w World of Tanks, pakiet ulepszający postać w Planetside 2 oraz punkty walutowe w Hawken. Promocja Nvidii na tle oferty AMD wyglądała wówczas jeszcze gorzej niż wcześniej. Powtórzmy: gracze zamiast kodów do nowych gier AAA otrzymali... dodatki w grach „free to play”.
AMD w ramach kolejnej edycji Never Settle po prostu dodawała kolejne tytuły, ale tych już nie było wiele. Z w miarę głośnych nowości po pewnym czasie doszła w zasadzie tylko jedna: Alien: Isolation, a oprócz tego AMD zaoferowało na wyłączność wszystkim kupującym Radeony specjalny statek kosmiczny w nadchodzącej grze Star Citizen.
Nvidia wkrótce zrozumiała, że promocje z dodatkami do gier typu „free to play” nie zrobią furory i lepiej oferować po prostu gry. „Zieloni” lubią się z Ubisoftem, więc wkrótce nowi użytkownicy GeForce'ów mogli przebierać w takich tytułach, jak Watch Dogs, Far Cry 4, Assassin's Creed: Unity i The Crew. W końcu potencjalny nabywca GeForce'a miał wybór prawdziwych gier AAA, choć był w tym pewien haczyk: mógł w ten sposób zdobyć tylko jedną.
Ogółem w dziedzinie promocji AMD w ostatnich 3 latach wygrało bezdyskusyjnie. Nvidia zawsze była za rywalem przynajmniej o krok, a nieraz i dwa kroki i w każdym momencie miał on więcej asów w rękawie w postaci dobrych gier.
Takie akcje promocyjne zyskały ogromne uznanie graczy, więc mamy nadzieję, że będą one kontynuowane po obu stronach barykady.
GeForce Experience, AMD Raptr
W ostatnich 3 latach zarówno AMD, jak i Nvidia oferują do swoich kart graficznych dodatkowe narzędzia, takie jak GeForce Experience i AMD Raptr. Ich instalacja jest opcjonalna, a głównym zadaniem jest automatyczne dobieranie ustawień jakości obrazu w grach, w zależności od sprzętu. Na szczęście my analizujemy dziś rynek tylko z punktu widzenia pecetowych zapaleńców, którzy i tak samodzielnie zmieniają ustawienia, lepiej zatem skupić się na dodatkowych technikach stosowanych w obu programach.
Nvidia po raz pierwszy zaprezentowała GeForce Experience jeszcze w 2012 roku, ale dopiero na początku 2013 roku zostały w narzędziu udostępnione zaawansowane funkcje. To między innymi automatyczna aktualizacja sterowników i ShadowPlay.
Na czym polega ta pierwsza – wiadomo. Po odpowiednim skonfigurowaniu GeForce Experience powiadomi o każdym nowym wydaniu sterowników w momencie ich udostępnienia (również w wersji Beta) i automatycznie je pobierze, by następnie zaproponować instalację, lub zaproponuje ich pobranie i natychmiastową instalację. Niby nic wielkiego, ale użytkownicy najwydajniejszych kart zdają sobie sprawę z tego, jaki wpływ na działanie sprzętu w nowych grach mogą mieć sterowniki, więc niektórzy odwiedzają strony nvidia.com i amd.com codziennie ;)
ShadowPlay zaś to funkcja nagrywania bezpośrednio zawartości ekranu monitora. Nvidia udostępniła w ten sposób możliwość rejestrowania wideo w wysokiej jakości wprost z bufora ramki karty graficznej. W efekcie karty Nvidii z serii Kepler mogą zapisywać obraz w takich trybach, jak 1080p60 (1920 × 1080 w 60 kl./s) i 1440p30 (2560 × 1440 w 30 kl./s) z minimalną (kilkuprocentową) stratą wydajności, podczas gdy wcześniej gracze musieli do tego celu używać na przykład ogromnie obciążającego komputer Frapsa czy nieco mniej wymagającego Dxtory. Maxwell okazał się jeszcze lepiej przystosowany do funkcji ShadowPlay, bo karty z serii GTX 900 umieją nagrywać w 60 kl./s wideo 1080p60, 1440p60, a nawet 4K o przepływności rzędu 130 Mb/s.
AMD tego typu funkcji nie udostępniało aż do września 2013 roku, kiedy to firma nawiązała współpracę z Raptr. Raptr oprócz optymalizacji ustawień w grach (tak jak w przypadku GeForce Experience) też zapewnia dodatkowe funkcje ułatwiające życie, ale początki były kiepskie. Kiedy w 2013 roku użytkownik klikał „Sprawdź wersję sterownika”, Raptr nie sprawdzał wersji oprogramowania na własną rękę, a po prostu otwierał przeglądarkę internetową i przenosił na stronę AMD do sekcji ze sterownikami. Ta funkcja została usprawniona w 2014 roku i dopiero od tego momentu sterowniki można instalować bezpośrednio z okna tego narzędzia.
Funkcja nagrywania obrazu z gier Game DVR pojawiła się dopiero w czerwcu 2014 roku, czyli prawie 1,5 roku po tym, jak ShadowPlay Nvidii był już dostępny dla użytkowników... i to w mniej funkcjonalnej wersji. Dzisiaj Game DVR pozwala posiadaczom najmocniejszych kart graficznych AMD nagrywać w 60 kl./s obraz Full HD o przepływności rzędu 50 Mb/s. Z nagrywaniem w rozdzielczości 2560 × 1440 i 4K (chociażby w 30 kl./s) na razie Radeon R9 290 i R9 290X sobie nie radzą i to się raczej nie zmieni z powodu ograniczeń sprzętowych. Na lepszą jakość zwolennicy Radeonów prawdopodobnie będą musieli po prostu poczekać do czasu, aż na rynek trafi seria R9 300.
A co, jeśli komuś zależy na zapisie ostatnich kilkunastu minut rozgrywki, bo na przykład zdarzyło mu się wykonać jakąś niesamowicie efektowną akcję? Zarówno Nvidia, jak i AMD dają mu możliwość zapisania jednym wciśnięciem klawisza ostatnich 20 minut rozgrywki. Jednak i tutaj lepsze okazuje się rozwiązanie „zielonych”: Maxwell zapisze ostatnie 20 minut zabawy w dokładnie takim trybie, w jakim by ją nagrywał od samego początku, czyli w rozdzielczości 4K w 60 kl./s przy przepływności rzędu 130 Mb/s, podczas gdy karty AMD pozwolą to zrobić tylko w rozdzielczości 720p. A szkoda.
W dziedzinie funkcjonalności programów wspomagających Nvidia wyprzedziła AMD o dobrych kilkanaście miesięcy, gdy na początku 2013 roku udostępniła swoim użytkownikom narzędzie GeForce Experience wraz z funkcją nagrywania zapisu rozgrywki.
Taktowanie w fabrycznej konfiguracji i możliwości podkręcania
Wersje referencyjne produktów AMD oraz Nvidii to pierwsze egzemplarze, jakie wychodzą z fabryki – produkty, na których firmy sprawdzają faktyczną wydajność w porównaniu z osiągami konkurencji, by na tej podstawie stworzyć poradnik testera, a w późniejszym okresie materiały marketingowe mówiące o tym, o ile dana karta graficzna jest szybsza od starszego modelu i/lub rywala.
Przed tym jednak, w długim procesie ustalania wszystkich parametrów karty, trzeba określić standardowe częstotliwości taktowania. W ostatecznej formie wartości te poznajemy z artykułów prasowych. Wydajność wersji referencyjnej ma pokazywać osiągi finalnego produktu, ale jak dobrze wiemy, wersje referencyjne są kupowane mniej chętnie od własnych konstrukcji poszczególnych producentów sprzętu (podkręconych już w konfiguracji fabrycznej i wyposażonych w znacznie lepsze układy chłodzenia). Jakkolwiek dobry byłby zaprojektowany przez Nvidię układ chłodzenia znany choćby z GTX-a 980, w bezpośrednim starciu na przykład z DirectCU II Asusa jest na straconej pozycji.
Kilka słów o tym, jak AMD i Nvidia podają te referencyjne częstotliwości. Na przykład w przypadku serii HD 7000, obejmującej m.in. Radeona HD 7970 GHz, producenci sprzętu (w tym samo AMD) zawsze podawali taktowanie w formie 1GHz (up to 1.05GHz with boost). Innymi słowy, na pudełku widniała częstotliwość 1000 MHz, mimo że w grach posiadacz wymienionego modelu mógł liczyć na 1025–1050 MHz. To podejście zmieniło się wraz z serią R7/R9: już w przypadku Radeona R9 290X mieliśmy do czynienia z zapisem Up to 1000MHz. Co to oznacza? Równo gigahercowe taktowanie to najlepszy możliwy scenariusz: muszą być spełnione wszystkie warunki, m.in. dotyczące temperatury układu. Ci, którzy kupili referencyjny model Radeona R9 290 lub R9 290X, na pewno boleśnie się o tym przekonali, gdy już po kilkunastu minutach gry taktowanie rdzenia graficznego spadało do 800–850 MHz.
Sposób podawania parametrów karty przez Nvidię jest całkowicie odmienny. Na pudełku oraz w danych technicznych są wypisane dwie częstotliwości bazowe (gwarantowane) oraz częstotliwości Boost i ten zapis Nvidia stosuje już od czasów GeForce'a GTX 680. Najlepszym przykładem może być GeForce GTX 980 tej firmy: taktowanie bazowe – 1126 MHz, taktowanie Boost – 1216 MHz. Pierwsze z nich to taktowanie gwarantowane – nigdy nie spowolni poniżej tego poziomu w normalnej grze, nawet przy temperaturze pokojowej rzędu 40 stopni Celsjusza i po kilku godzinach zabawy. Taktowanie Boost to już swego rodzaju bonus, który jednak jest dostępny posiadaczowi każdego GeForce'a, i tak faktyczne taktowanie dziewięćsetosiemdziesiątki w grach to około 1240 MHz.
Drugą sprawą jest wyżyłowanie konstrukcji na dzień rozpoczęcia sprzedaży. „Czerwoni” zawsze chcą się pochwalić jak największą wydajnością za wszelką cenę i najlepszym tego przykładem jest chyba właśnie Radeon R9 290X, czyli karta po prostu nieużywalna w wersji referencyjnej ze względu na fatalną kulturę działania. Ale to jedna strona medalu: drugą jest to, jak bardzo podkręcone modele niereferencyjne mogą przygotować poszczególni producenci sprzętu. Dobrze to pokazują poniższe tabele:
Taktowanie | Zmiana względem wersji referencyjnej | |
---|---|---|
Radeon R9 290X (wersja referencyjna) | 1000 MHz | Nie dotyczy |
Radeon R9 290X (średnie taktowanie wersji niereferencyjnych) | 1050 MHz | ~5% |
Radeon R9 290X (maksymalne taktowanie wersji niereferencyjnych) | 1080 MHz | ~8% |
Średnio producentom udało się przetaktować niereferencyjne wersje Radeonów R9 290X o 5%, a największe przyspieszenie osiągnęło MSI: dzięki użyciu trzyslotowego systemu chłodzenia udało się stworzyć konstrukcję o 8% szybszą od oryginału.
Taktowanie | Zmiana względem wersji referencyjnej | |
---|---|---|
Radeon R9 290 (wersja referencyjna) | 947 MHz | Nie dotyczy |
Radeon R9 290 (średnie taktowanie wersji niereferencyjnych) | 1000 MHz | ~6% |
Radeon R9 290 (maksymalne taktowanie wersji niereferencyjnych) | 1040 MHz | ~10% |
Tylko nieco lepiej wygląda to w przypadku modelu R9 290: tutaj średnie przetaktowanie wynosiło 6%, a najszybsza wersja na rynku została przyspieszona o 10%.
Oba rezultaty bledną jednak na tle czołowych modeli konkurencji, które, przynajmniej w teorii, mają najmniejszy zapas mocy.
Taktowanie | Zmiana względem wersji referencyjnej | |
---|---|---|
GeForce GTX 780 Ti (wersja referencyjna) | 876 MHz | Nie dotyczy |
GeForce GTX 780 Ti (średnie taktowanie wersji niereferencyjnych) | 1000 MHz | ~14% |
GeForce GTX 780 Ti (maksymalne taktowanie wersji niereferencyjnych) | 1020 MHz | ~16% |
Średnie przetaktowanie GeForce'a GTX 780 Ti, jakie osiągnęli poszczególni producenci sprzętu, to aż 1000 MHz (z referencyjnych 876 MHz), co oznacza 14-procentową poprawę.
Taktowanie | Zmiana względem wersji referencyjnej | |
---|---|---|
GeForce GTX 980 (wersja referencyjna) | 1126 MHz | Nie dotyczy |
GeForce GTX 980 (średnie taktowanie wersji niereferencyjnych) | 1225 MHz | ~9% |
GeForce GTX 980 (maksymalne taktowanie wersji niereferencyjnych) | 1291 MHz | ~15% |
GeForce GTX 980 został przez poszczególnych producentów przetaktowany średnio o mniej więcej 10%, a najwięcej udało się osiągnąć Zotacowi: w modelu AMP! Extreme taktowanie bazowe przyspieszało do obłędnej częstotliwości 1291 MHz.
Tabelki pokazują coś, co od wielu miesięcy widzieli ci nieco bardziej uważni użytkownicy, czytający wykresy z wynikami wydajności wraz z podpisami ze zrozumieniem: Nvidia w wersjach referencyjnych, rozsyłanych do testów, ustawia taktowanie dość konserwatywnie, nie żyłując swoich konstrukcji, co daje większe pole do popisu producentom wersji niereferencyjnych, a egzemplarze sklepowe są jeszcze szybsze niż dostarczane do testów jako próbki.
Kilka luźnych myśli
Wydajność stoi w miejscu...
Nie, to nie żart. Wystarczy spojrzeć na daty, kiedy pojawiały się kolejne nowości, i wydajność poszczególnych produktów. GeForce GTX Titan na rynek trafił 21 lutego 2013 roku, czyli nieco ponad 2 lata temu. Jaka karta dzisiaj jest najszybsza? To na pewno GeForce GTX 980, wprowadzony pod koniec września 2014 roku. Jaka jest między nimi różnica w wydajności? Tylko 10%, maksymalnie 15% – zakładając, że żadne z tych GPU nie jest przetaktowane. Jeśli podkręcanie wchodzi w grę, okazuje się, że dystans między nimi tylko się zmniejszy, bo GTX Titan to – jak pisaliśmy na trzeciej stronie – karta bardzo niedotaktowana, więc bez problemu można ją przyspieszyć o ponad 20%, a dziewięćsetosiemdziesiątka podkręci się nieco słabiej (o 15%).
Innymi słowy, od 2 lat możliwa do osiągnięcia wydajność wcale się nie zmienia. Jednocześnie zdajemy sobie sprawę, że Maxwell w danym budżecie energetycznym może być znacznie szybszy niż Kepler, a możliwości skalowania architektury są duże. Nvidia prawdopodobnie całkiem świadomie dawkuje nam wydajność, obserwując bacznie ruchy konkurencji, która przez ostatnie 2 lata, niestety, tylko goni rywala: AMD nie miało w ofercie najwydajniejszej karty właśnie od czasu, gdy pojawił się Titan, a Nvidia z 75-procentowym udziałem w rynku raczej nie czuje na plecach jego oddechu.
Jedyne, co faktycznie się zmienia, to ceny. Dzisiaj osiągi GTX-a Titana / GTX-a 780 Ti czy GTX-a 980 są dostępne za... 2300–2400 zł, a nie od razu za 4000 zł ;)
...więc 4K w 60 kl./s to daleka przyszłość
Ten punkt jest powiązany bezpośrednio ze stwierdzeniem, że... wydajność stoi w miejscu. Producenci monitorów i telewizorów poczynają już sobie bardzo śmiało, co rusz wprowadzając nowości i chwaląc się matrycami 4K. Efektem jest swego rodzaju zalanie rynku sprzętem i obniżka cen. Pamiętamy, jak długo trzeba było czekać na obniżkę cen ekranów WQHD, czyli o rozdzielczości 2560 × 1440. Tymczasem wyświetlacz 4K można już kupić za mniej niż 2000 zł.
Taka sytuacja sprawia, że niektórzy już wpadli w szał #pcmasterrace, marząc o 4K w 60 kl./s. A realia? Faktycznie, 4K w takiej płynności jak najbardziej jest w zasięgu co zamożniejszych, ale wciąż wymaga użycia przynajmniej dwóch najmocniejszych na rynku kart graficznych. To oznacza duże wydatki, a i one nie zapewnią płynności w najwyższych ustawieniach jakości obrazu w każdej grze.
Tak jak napisaliśmy: przez ostatnie 2 lata wydajność stoi w miejscu i nic nie zapowiada zmiany tego stanu rzeczy aż o tyle, by można było mówić o komfortowej grze w 4K z wykorzystaniem jednej karty. Obiektywnie rzecz biorąc, nowy produkt (czy to Nvidii, czy AMD) musiałby być przynajmniej dwa razy szybszy od GTX-a 980 i kosztować nie więcej niż on, żeby można było realnie mówić o erze 4K dla graczy. Innymi słowy, era 4K w 60 kl./s wciąż przed nami.
Nvidia nie lubi montować na kartach zbyt dużo pamięci VRAM
Nvidia dawkuje nie tylko wydajność, ale również pamięć graficzną. Firma ma skłonność do montowania mniejszej ilości pamięci, niż można znaleźć w konkurencyjnych konstrukcjach. Mamy Radeona HD 7970 GHz z 3 GB VRAM-u, a jego rywalem jest... 2-gigabajtowy GeForce GTX 680. To samo dotyczy dwóch kart opartych na w zasadzie tych samych układach: R9 280X oraz GTX-a 770. Owszem, istniały 4-gigabajtowe wersje sześćsetosiemdziesiątki, ale były dostępne w bardzo niekorzystnych cenach. Radeony R9 290X oraz R9 290 dostały po 4 GB pamięci, a Nvidia w odpowiedzi wystawia 3-gigabajtowego GTX-a 780 Ti. Tę różnicę zniwelowały dopiero nowe Maxwelle.
Na moment przeniesiemy się do niższego segmentu: mamy na rynku R9 280 z 3 GB pamięci, a Nvidia do walki posyła 2-gigabajtowego GTX-a 960. W zasadzie jedynym wyjątkiem jest tutaj GTX Titan, który dostał 6 GB pamięci, bo już jego słabsza wersja, czyli GTX 780, była dostępna tylko w 3-gigabajtowych wariantach.
Oczywiście, początkowo ta różnica w ilości pamięci nie robi żadnej różnicy w dziedzinie wydajności, bo pierwsze skrzypce gra moc obliczeniowa rdzenia. Niestety, przychodzi moment, w którym sytuacja zaczyna się odwracać. Właśnie to obserwujemy dzisiaj w niektórych grach w przypadku GTX-a 770 i Radeona R9 280X. Ten pierwszy przez cały swój okres życia pokonywał osiemdziesiątkę z X w nazwie, ale niektóre gry już teraz zaczynają wykorzystywać większą ilość pamięci i tam, gdzie jest ona naprawdę potrzebna, GTX 770 znacznie zwalnia w porównaniu z rywalem. Na razie zdarza się to stosunkowo rzadko, ale wszystko wskazuje na to, że będzie do tego dochodzić coraz częściej.
Najlepszy produkt (2012–2015)
Który układ graficzny był naszym zdaniem najlepszy w ostatnich 3 latach? Jeśli weźmiemy pod uwagę całość, czyli: jakość, wydajność, kulturę działania czy zmiany sytuacji rynkowej, to raczej bez żadnych wątpliwości wskażemy model... GeForce GTX 970. Pomimo skandalu z błędnym podaniem parametrów dziewięćsetsiedemdziesiątka okazała się znakomitą propozycją dla wymagających graczy. Układ ten w dziedzinie czystej wydajności, głośności układu chłodzenia oraz zapotrzebowania na energię przegonił bez większych problemów czołową konstrukcję AMD, czyli Radeona R9 290X, i jednocześnie był od niej po prostu tańszy, a to za sprawą niespodziewanej, bardzo agresywnej strategii cenowej Nvidii.
GTX 970 poczynił wielkie spustoszenie w szeregach AMD i stał się jedną z najchętniej wybieranych kart graficznych. Obecnie ponad 2% użytkowników Steama ma w komputerze właśnie tę kartę i jest to doskonały wynik, biorąc pod uwagę, że mamy do czynienia z konstrukcją za blisko 1500 zł. Ten sprzęt udał się Nvidii na tyle, że wielu przekonał do wymiany karty graficznej, niekiedy po kilku długich latach oczekiwania, właśnie teraz.
Dla nas to bez wątpienia najlepszy produkt ostatnich 3 lat.
Najgorszy produkt (2012–2015)
Niespodzianki chyba nie będzie. Za najmniej udaną kartę graficzną ostatnich 36 miesięcy uważamy referencyjnego Radeona R9 290X. Produkt sprawiał wrażenie maksymalnie wyżyłowanego i taki też był: zapewniał bardzo wysoką wydajność (choć tylko przez kilka pierwszych minut testu), ale jego kultura działania była nie do przyjęcia.
Tematu prawdopodobnie by nie było, gdyby wersje referencyjne w ogóle nie pojawiły się w sprzedaży i/lub wersje niereferencyjne Radeona R9 290X były dostępne od razu. Niestety, pośpiech w przygotowywaniu najmocniejszej karty w ofercie AMD i chęć dorównania wówczas najmocniejszemu GTX-owi Titanowi spowodowały, że postawiono na metodę siłową. W rezultacie producenci wersji niereferencyjnych potrzebowali aż 3 miesięcy, by okiełznać temperaturę nowego układu graficznego.
Tym samym bardzo gorący i jeszcze głośniejszy referencyjny Radeon R9 290X na lata zapisał się raczej bladymi zgłoskami w pamięci graczy, tak samo jak wcześniej GeForce GTX 480.
Największe zaskoczenie (2012–2015)
Na pytanie o największe zaskoczenie na rynku GPU w latach 2012–2015 członkowie naszej redakcji odpowiadali różnie. Najczęściej jednak przewijały się następujące nazwy:
- GeForce GTX Titan. Dość niespodziewana nowość, która w obrębie tej samej generacji i tego samego co dotychczas procesu technologicznego zapewniła ogromny skok wydajności.
- GeForce GTX 970. Od samego początku przykład bardzo agresywnej strategii cenowej Nvidii, która choć w ofercie miała produkt lepszy od R9 290X, wyceniła swoją nowość na przeszło 300 zł mniej, co wcześniej raczej się jej nie zdarzało.
- Mantle. Nie jest to typowy „produkt”, chyba, że mówimy o produkcie marketingowym ;) W każdym razie musimy o tym wspomnieć, bo nowe API AMD potwierdziło swoją przydatność w pewnych sytuacjach (Battlefield 4 + słaby procesor) i wpłynęło na rozwój kolejnego DirectX-a.
Spośród podanych przykładów bardzo trudno wybrać to naprawdę największe zaskoczenie. Jeszcze tydzień przed pojawieniem się GTX-a Titana nie za bardzo wierzyliśmy w jego parametry, a w konsekwencji wydajność. Jeszcze tydzień przed tym, zanim do sklepów trafił GTX 970, nie wierzyliśmy, że przy wydajności, którą miał zapewniać, zostanie wyceniony tak nisko. Po początkowych zapowiedziach dotyczących Mantle też nie wierzyliśmy, że może być tak dobrze, jak się później okazało w Battlefieldzie 4 (zobacz też nasze podsumowanie roku z Mantle).
Jesteśmy za to ciekawi, jakie było największe zaskoczenie dla naszych Czytelników. Zachęcamy do dyskusji w komentarzach!
Kto w ostatnich 3 latach podjął najlepszą i najgorszą decyzję zakupową?
Użytkownik #6: GeForce GTX 680 / Radeon HD 7970 GHz -> GTX 780 -> GTX 780 Ti -> GTX 980 (modernizacja łącznie za 4300 zł)
Zacznijmy od tych, którzy zmieniali karty i w sumie bardzo dużo wydali, a niewiele na tym skorzystali.
Najmniej nad swoimi zakupami zastanawiał się użytkownik #6, który w ciągu ostatnich 3 lat zmieniał GPU aż trzy razy. Najpierw miał GTX-a 680 / HD 7970 GHz, którego, z pominięciem Titana, postanowił zmienić na GTX-a 780. Modernizacja niewątpliwie przyniosła duży skok wydajności, wart poniesionego wydatku. Siedemsetosiemdziesiątka przestała wystarczać użytkownikowi #6 już pół roku później i wtedy zdecydował się on na bardzo mało opłacalną zmianę na GTX-a 780 Ti. Dlaczego mało opłacalną? Przesiadka na model z Ti w nazwie zapewniła co prawda 15-procentowy wzrost wydajności, ale kosztowała aż 1500 zł, a przesłanek do wymiany sprzętu w zasadzie nie było także dlatego, że ilość pamięci VRAM wcale się nie zwiększyła, bo GTX 780 Ti również miał jej 3 GB. Innymi słowy, moc rdzenia wzrosła, ale w razie braku pamięci obie konstrukcje mają te same problemy, czyli nieznośne zacięcia animacji.
Użytkownik #6 korzystał ze swojego GTX-a 780 Ti niecały rok i znowu chęć zmiany sprzętu wygrała. Nowy, duży Maxwell, GeForce GTX 980, okazał się dla niego na tyle atrakcyjną propozycją, że postanowił znów wyłożyć prawie 1,5 tys. zł. Przesiadka z GTX-a 780 Ti na GTX-a 980 przyniosła zwiększenie ilości pamięci VRAM, ale realna poprawa osiągów była jedynie 5-procentowa i w zasadzie jedyną korzyścią była mniejsza głośność układu chłodzenia i niższa temperatura działania układu graficznego. Naszym zdaniem warto za to zapłacić kilkaset złotych, ale na pewno nie aż 1400 zł – a tyle właśnie kosztowała zmiana GTX-a 780 Ti na dziewięćsetosiemdziesiątkę.
Ogółem użytkownik #6 przeznaczył na zmiany w komputerze bardzo dużo, ale wydatki nie przełożyły się zauważalnie na wydajność. Ta ścieżka zmian (najpierw GTX 780, później GTX 780 Ti, a następnie GTX 980) nie była popularna, jednak choćby na naszym forum piszą osoby, które ją obrały.
Użytkownik #8: GeForce GTX 680 / Radeon HD 7970 GHz -> Radeon R9 290X -> GeForce GTX 980 (modernizacja łącznie za 2950 zł)
Nie najgorszą, ale zarazem nie najlepszą decyzję podjął użytkownik #8.
Wydał on aż 3000 zł i w sumie również jego doświadczenia z kartami graficznymi okazały się nie najszczęśliwsze. Zacznijmy od tego, że z wymianą czekał bardzo długo. Kiedy posiadacze GTX-ów Titanów i GTX-ów 780 już od prawie roku grali w najnowsze gry w najwyższych ustawieniach jakości obrazu, on, posiadacz GTX-a 680 / HD 7970 GHz, wciąż obniżał ustawienia lub grał w „konsolowych” 30 kl./s, co wydaje się raczej słabym wynikiem, jak na „entuzjastę”, który wydawszy równowartość ceny konsoli na kartę graficzną, raczej oczekuje znacznie lepszej jakości rozgrywki. Ta sytuacja zmieniła się dopiero na przełomie 2013 i 2014 roku, kiedy to kupił Radeona R9 290X. Wtedy w końcu mógł włączać wysokie ustawienia jakości grafiki.
Po niecałym roku najwidoczniej uznał, że Radeon R9 290X już mu nie wystarcza lub dobrze byłoby polepszyć jednocześnie wydajność oraz kulturę działania karty. Wtedy zmienił czołowego Radeona z serii R9 na najszybszego GeForce'a z serii GTX 900, czyli dziewięćsetosiemdziesiątkę. Wydajność w porównaniu z osiągami Radeona wzrosła, a głośność komputera znacznie się zmniejszyła, lecz ostatnia zmiana w istocie kosztowała użytkownika #8 ponad 1,5 tys. zł.
Ogółem użytkownik #8 wydał około 3000 zł i ostatecznie cieszył się najwyższą dostępną wydajnością, ale wcześniej (przez cały 2013 rok) osiągi jego sprzętu były po prostu słabe (co najwyżej pułap GTX-a 680 / HD 7970 GHz).
Mając w portfelu 3000 zł, mógł postąpić jak użytkownik #3 (GeForce GTX 680 / Radeon HD 7970 GHz -> GTX 780 -> GTX 780 Ti), aby bawić się w najwyższych ustawieniach jakości obrazu ponad pół roku wcześniej i nawet dziś cieszyć się wysoką wydajnością (w porównaniu z osiągami najszybszego na rynku GTX-a 980).
Użytkownik #10: GeForce GTX 680 / Radeon HD 7970 GHz -> Radeon R9 290 -> GeForce GTX 970 (modernizacja łącznie za 1500 zł)
Całkiem nieźle wyszedł na zmianach sprzętu użytkownik #10, którego strategia polegała na tym, aby omijać absolutnie najszybsze układy i kupować znacznie bardziej opłacalne produkty, stojące dosłownie o szczebel niżej w hierarchii od R9 290X i GTX-a 980.
Użytkownik #10, tak jak omawiany wyżej #8, przez cały 2013 rok miał w komputerze starszą kartę graficzną, czyli GTX-a 680 lub Radeona HD 7970 GHz. Ani pojawienie się GTX-a Titana w lutym, ani też GTX-a 780 w maju nie zachęciło go do wymiany sprzętu z powodu wysokich cen: obie karty kosztowały grubo powyżej 2000 zł. Cierpliwe oczekiwanie z jednej strony było bolesne, bo użytkownik #10 nie mógł grać w najwyższych ustawieniach w takie gry, jak Crysis 3, Bioshock, Tomb Raider czy wreszcie Metro, ale z drugiej opłacało się wytrwać do przełomu 2013 i 2014 roku, aby za mniej więcej 800 zł wymienić wysłużony sprzęt na niereferencyjnego Radeona R9 290. Ta modernizacja pozwoliła znacznie zwiększyć wydajność: o 30–35%. Co prawda nie było mowy o poziomie GTX-a Titana czy GTX-a 780 Ti, ale mimo wszystko przesiadka z GTX-a 680 / HD 7970 GHz po prostu się opłaciła.
Drugi taki krok użytkownik #10 wykonał we wrześniu 2014 roku. Szybka odsprzedaż Radeona R9 290 i zakup nowego modelu w ofercie Nvidii, świetnie wycenionego GeForce'a GTX 970, pozwoliły ograniczyć wydatek do „zaledwie” 800 zł i osiągnąć wydajność na przykład GTX-a Titana.
Ogółem przez ostatnie 3 lata użytkownik #10 wydał na wymianę kart graficznych tylko 1,5 tys. zł i obecnie jego komputer osiąga praktycznie najwyższą możliwą wydajność w grach. Warto było wybierać nie te najlepsze i najszybsze układy graficzne, ale prawie najszybsze w danej serii i zarazem znacznie tańsze.
Użytkownik #1: GeForce GTX 680 / Radeon HD 7970 GHz -> GeForce GTX Titan (modernizacja łącznie za 2800 zł)
Szczerze mówiąc, w głównej mierze to właśnie ten scenariusz skłonił nas do tego, by stworzyć niniejszy artykuł, bo naszym zdaniem decyzja o kupieniu GTX Titana od razu po tym, jak trafił do sklepów, była – wbrew początkowym pozorom – najlepszą, jaką „entuzjasta” mógł podjąć w ciągu ostatnich 3 lat.
O tym, czym wówczas był Titan, pisaliśmy na trzeciej stronie. Z jednej strony najwydajniejsza karta na rynku, wyprzedzająca znacznie (zazwyczaj o mniej więcej 50%) wszystkie inne. Z drugiej cena: 4000 zł, ewentualnie, po odsprzedaniu jednego z wcześniejszych czołowych modeli (GTX-a 680 / HD 7970 GHz), 2800 zł.
Tych, którzy przyznawali się do planów zakupu Titana lub faktycznie go kupowali, wielu graczy nazywało mało rozsądnymi, głupimi, a nawet frajerami. Z tym większą satysfakcją posiadacze Titana mogą dzisiaj śmiać się ze swoich ówczesnych krytyków. Dlaczego?
GeForce GTX Titan kupiony od razu po tym, jak się pojawił, służył właścicielowi przez ostatnie 3 lata lepiej, niż początkowo można było się spodziewać. Po pierwsze, użytkownik Titana od lutego 2013 roku aż do dzisiaj może uruchamiać wszystkie gry w najwyższych ustawieniach szczegółowości obrazu. Crysis 3, Bioshock: Infinite, Tomb Raider, Metro, Splinter Cell, Battlefield 4... Reszta przez długi czas musiała obejść się smakiem. Wydajniejsze, tak samo wydajne i co najwyżej minimalnie wolniejsze karty pojawiły się dopiero pod koniec 2013 roku (GTX 780 Ti / Radeon R9 290X). To właśnie w tym kontekście powinno się rozpatrywać cenę Titana: użytkownik #1 nie zapłacił za produkt jako taki – zapłacił ekstra za możliwość gry w najwyższych ustawieniach graficznych, kiedy to nikt inny jej nie miał.
Co więcej, nawet dzisiaj w niektóre gry w pełni płynnie może zagrać... tylko użytkownik Titana, a wszystko za sprawą 6 GB pamięci GDDR5. Przykłady? Daleko szukać nie trzeba. O sprawie wiedzieliśmy już wcześniej, ale ostatecznie przekonały o tym dodatkowe testy modelu GeForce GTX 970, przeprowadzone przez nas ostatnio za pomocą metody FCAT. Mowa o pomiarach w Shadow of Mordor i Watch Dogs. W pierwszej chwili łatwo nie zwrócić uwagi na drobiazgi na wykresach, a diabeł tkwi właśnie w szczegółach. Jaką prawidłowość widzicie na wykresach z wynikami w dwóch wymienionych tytułach? Już w połowie 2014 roku można było podziwiać pierwszą grę wykorzystującą w najwyższych ustawieniach jakości obrazu ponad 4 GB pamięci, wspomnianą Watch Dogs. Podczas standardowej rozgrywki, w trakcie przejazdów po mieście, jedyną kartą graficzną na rynku, która zapewnia w pełni płynny obraz, jest właśnie GeForce GTX Titan. Produkcja Ubisoftu alokuje na nim prawie 5 GB i faktycznie z tej możliwości korzysta. Radeonowi R9 290X, GTX-owi 780 Ti, GTX-owi 970 czy wreszcie GTX-owi 980 zdarzają się zacięcia, które Titanowi są obce.
Analogiczna sytuacja występuje na przykład w Middle-earth: Shadow of Mordor i Assassin's Creed: Unity. Włączamy przynajmniej rozdzielczość Full HD i najwyższe możliwe ustawienia, przemierzamy rozległe Śródziemie na ekranie monitora podłączonego do jednej z tych samych, maksymalnie 4-gigabajtowych kart graficznych i niejednokrotnie obserwujemy kilkusekundowy pokaz slajdów, bo czas generowania klatek przekracza 100 ms. Oczywiście, znowu brakuje pamięci, ale GeForce GTX Titan tego problemu po prostu nie ma: pozwala zaalokować grze prawie 6 GB i rozgrywka od początku do końca jest w pełni płynna.
Właśnie z tego powodu okazuje się, że czasem po prostu opłaca się wyłożyć jednorazowo dużą kwotę na kartę graficzną, aby cieszyć się wysoką wydajnością jak najwcześniej. Raczej mało kto się spodziewał, że GeForce GTX Titan spokojnie w swojej roli wytrzyma 2 lata, a prawdopodobnie jeszcze kilka miesięcy dłużej, ale naszym zdaniem ktoś, kto postanowił go kupić od razu po tym, jak się pojawił, w lutym 2013 roku, podjął najlepszą decyzję spośród wszystkich naszych hipotetycznych graczy. Całkowity koszt wymiany sprzętu wyniósł niecałe 3000 zł (po odsprzedaniu starszej karty) i zwrócił się w postaci jakości zabawy do ostatniej złotówki.