W artykule Test najpopularniejszych kart graficznych ostatniej dekady sprawdzaliśmy, jak zmieniała się wydajność najchętniej kupowanych kart graficznych w ciągu ostatnich lat. Kolejne generacje GPU, zmiany procesu technologicznego wpływały na znaczny wzrost wydajności. Oczywiście rosła również cena. Aktualnie na przeciętną kartę graficzną trzeba przeznaczyć około 1000 złotych, kilka lat temu za 1500 złotych można było kupić znacznie wyżej usytuowany w hierarchii model. W obrębie 10 lat postęp jest bardzo duży, jeżeli jednak spojrzymy na znacznie krótszy okres czasu, który obejmuje jedną lub dwie architektury, rodzi się pytanie o segmentacje kart. Flagowy GPU określa aktualne możliwości najnowszej technologii i technik, na nic więcej nie możemy liczyć. Oczywiście karty wyposażone topowy układ graficzny, są drogie, obecnie nawet bardzo. Tak duża kwota wstępu do grona graczy byłaby dla wielu osób zaporą nie do przebycia, toteż od wielu lat producenci układów graficznych skutecznie tworzą wiele słabszych i niżej wycenionych GPU.
Zazwyczaj dzieje się to w dwojaki sposób. W trakcie produkcji nowych układów lepszy uzysk daje możliwość stworzenia jeszcze lepszej karty, która będzie działać szybciej. Z drugiej strony naturalne jest, że powstają słabsze modele ograniczone sztucznie przez producenta. Ograniczenie to może być zrealizowane na kilka sposobów:
- Niższa częstotliwość taktowania rdzenia oraz TDP.
- Mniejsza liczba bloków funkcjonalnych, która bezpośrednio przekłada się na wydajność obliczeniową.
- Mniej pamięci graficznej, co ma znaczenie w przypadku niektórych gier.
- Węższa magistrala pamięci.
W ten sposób, regulując te parametry, można stworzyć całą rodzinę kart, zapewniającą pełne spektrum wydajnościowe i cenowe. W wypadku architektury Turing, w sklepach znajdziemy karty z serii GTX, z czego najtańszy model GeForce GTX 1650, pozbawiony modułów RT, kosztuje nieco ponad 600 złotych. Flagowy model GeForce RTX 2080 Ti dostępny jest w cenie ponad 5000 złotych. Architektura ta sama, jednak konfiguracja GPU, rozmiar rdzenia i możliwości jakże inne. O ile firma AMD nie ma jeszcze propozycji w najwydajniejszym segmencie, to zarówno Nvidia, jak i AMD w średnim i budżetowym przedziale cenowym mają bardzo wiele modeli GPU. Co ciekawe, pod względem wydajności i cen, karty rzadko rywalizują ze sobą. Owszem, są modele mniej lub bardziej opłacalne, ale poprzez zmianę wyżej wymienionych parametrów producenci GPU są w stanie precyzyjnie umieścić dany model w segmencie wydajnościowym.
Patrząc od strony użytkownika, pewne parametry można zmieniać poprzez konfigurację, natomiast zawsze w ograniczonym zakresie. Parametry, na które wpływ ma użytkownik to:
- Częstotliwość pracy rdzenia graficznego - zwykle można ją zwiększyć, jednak wcześniej należy przydzielić karcie większy budżet energetyczny poprzez zwiększenie parametru TDP. Możliwości podkręcania zależą od wielu czynników, także tych zależnych od konkretnego egzemplarza, a wzrost wydajności nie przekracza kilkunastu-kilkunastu procent.
- Częstotliwość pracy pamięci - podobnie jak w wypadku GPU, także i pamięć VRAM można podkręcać. W tym wypadku wszystko zależy od modelu i zainstalowanych w nim pamięci. CO więcej, w zależności od architektury wzrost wydajności uzyskany tą metodą może być różny.
Po drugiej stronie stoją parametry, które zostały arbitralnie nadane przez producenta GPU podczas segmentacji modeli. Nie mamy na nie wpływu, wszelkie decyzje związane ze specyfikacją GPU podejmujemy podczas zakupu.
- Liczba i rodzaj jednostek obliczeniowych w GPU
- Szerokość szyny pamięci
- Rozmiar zamontowanej pamięci
Producent karty ─ wpływ na wydajność
Dobrze wiecie, że sam producent karty graficznej nie ma bezpośrednio dużego wpływu na wydajność GPU. Z testów kart niereferencyjnych, które dla Was przeprowadzamy, wynika, że różnice w szybkości podobnie wycenionych modeli nie przekraczają kilku procent. Zdecydowanie ważniejsze są jednak inne kryteria, na przykład układ chłodzący GPU. To on odpowiada za możliwości OC oraz za osiąganą maksymalną częstotliwość w trybie boost. Oczywiście kluczowa jest także głośność pracy, bo jeśli wydajność jest na podobnym poziomie, to podczas wyboru konkretnego modelu pod uwagę należy wziąć kolejne kryteria - również cenowe.
Co będziemy testować?
W tym artykule postanowiliśmy sprawdzić dla Was czynniki nie zawsze zależne od użytkownika. Na kolejnych stronach dowiecie się, jak TDP, częstotliwość taktowania, a także i napięcie zasilające GPU wpływają na końcową wydajność. Jakiego rodzaju są to zależności oraz jak duży jest to wpływ. Dodatkowo udało nam się wyizolować takie różnice jak: szerokość szyny pamięci, pojemność pamięci lub liczba rdzeni RT. Zapraszamy do lektury.
Wpływ TDP na wydajność
TDP jest to współczynnik, który służy do odpowiedniego doboru układu chłodzenia do konkretnego procesora - niezależnie, czy to jest CPU lub GPU. Moc tracona w postaci ciepła jest bezpośrednio związana z mocą prądu elektrycznego dostarczanego do urządzenia. Idąc dalej tą ścieżką, logiczne jest więc, że im wyższa wydajność, tym dany sprzęt będzie pobierał więcej prądu. Zależności te w ogólnym rozumieniu są proste, jednak przyglądając się szczegółom, trudniej je interpretować.
Warto zauważyć, że w ofercie jednego, konkretnego producenta znajdziemy przynajmniej kilka modeli z tym samym GPU. W wypadku Asus Phoenix RTX 2060 i ROG Strix RTX 2060 największą różnicą, którą zobaczymy na pierwszy rzut oka, to wielkość układu chłodzącego. Asus Phoenix RTX 2060 wyposażony jest w bardzo prosty schładzacz, którego współczynnik TDP wynosi 115 watów (spełnia on więc referencyjne TDP), natomiast w modelu ROG Strix układ chłodzenia charakteryzuje się współczynnikiem 160 do 190 watów. Czy w takim razie 165 procent domyślnego TDP przełoży się na o 65 procent lepszą wydajność? Oczywiście, że nie! Jej wzrost będzie dużo mniejszy, najczęściej możemy mówić najwyżej o dodatkowych 5- lub 10 procentach.
TDP jest wiec parametrem, który możemy regulować w ograniczonym zakresie. Zwiększając go, zmieniamy budżet mocy danego układu graficznego. Oznacza to, że układ będzie pobierał więcej prądu, częstotliwość wzrośnie (podobnie jak wytwarzana energia cieplna) i wydajność też.
TDP co to jest?
TDP, czyli thermal desing power, to parametr opisujący, ile ciepła jest w stanie wygenerować układ graficzny w scenariuszu przy typowym (dużym) obciążeniu np. granie w gry komputerowe. Na podstawie tego parametru dobierana jest wydajność schładzacza. Oczywiście rdzeń karty graficznej nie może pobrać dowolnie dużo prądu. Ma on swoje limity, tj. limit mocy oraz maksymalnego prądu. Limity te określają maksymalny budżet prądowy, którego rdzeń graficzny nie jest w stanie przekroczyć. Więc jak łatwo zauważyć parametr TDP ma wpływ nie tylko na samą temperaturę (aczkolwiek jest to definicja encyklopedyczna), lecz też na pozostałe limity rdzenia graficznego. Dlatego jeśli będziemy w stanie wpłynąć na ten parametr to, możliwe będzie podniesienie wydajności samego układu graficznego.
Warunki eksperymentu
Testom poddaliśmy trzy popularne karty graficzne: Asus ROG Strix RTX 2070, Nvidia GeForce RTX 2060 Founders Edition i AMD Radeon RX 5700. Test polegał na zwieszaniu w kroku 5 % parametru opisywanego jako TDP. Jednocześnie resztę ustawień zostawialiśmy na ustawieniach referencyjnych, czyli nie podnosiliśmy ręcznie częstotliwości rdzenia, tylko sprawdzaliśmy jak karta graficzna zareaguje na zniesienie domyślnych limitów mocy. Liczyliśmy więc tutaj na działanie trybów turbo. Dodatkowo przy każdej zmianie limitu mocy monitorowaliśmy takie współczynniki jak: pobór mocy rdzenia i całego zestawu.
Wyniki
Test został wykonany w grze Wiedźmin 3: Dziki Gon. Wybór podyktowany był wzorcową powtarzalnością testów, a odsetek błędu rzadko kiedy przekracza więcej niż 0,2 klatki na sekundę.
Średnio karty graficzne przyspieszyły o około dwie klatki na sekundę, czyli niewiele więcej niż 3%. Ich średni pobór prądu wzrósł o około od 10 % dla ROG Strix RTX 2070 do około 19% dla pozostałych kart graficznych. Co nas trochę zaskoczyło to to, że znając mechanizmy Boost w kartach graficznych Nvidii i AMD, spodziewaliśmy się, że wzrost częstotliwości taktowania poszczególnych kart graficznych będize większy. To tylko prowadzi do konkluzji, żeby skorzystać w pełni możliwości podniesienia limitu mocy, trzeba ręcznie zwiększyć częstotliwość pracy rdzenia karty graficznej.
Warto zauważyć, że wzrost TDP przekłada się na wzrost napięcia zasilania, to zaś proporcjonalnie wpływa na zmianę mocy prądu pobieranego przez kartę. Podobna zależność jest pomiędzy częstotliwością taktowania a wydajnością. W zależności od modelu karty liczy się jednak przedział, w którym możemy regulować parametr TDP.
Undervolting i podkręcanie karty graficznej.
Undervolting to celowe obniżanie napięcia na rdzeniu karty graficznej, które ma spowodować niższe zapotrzebowanie karty graficznej na energię elektryczną. Zerknijcie jeszcze raz na poprzednią stronę - zmieniany parametr TDP jest naniesiony na skali liniowej, zaś przebieg Vcore zmienia się wykładniczo. Dlatego w wypadku tego procesu szukamy optymalnej wartości napięcia, przy której nie nastąpi przekroczenie limitów energetycznych GPU przy maksymalnej częstotliwości taktowania. Zazwyczaj jednak po obniżeniu napięcia na rdzeniu realna częstotliwość pracy układu graficznego też ulega pogorszeniu, ale umiejętnie przeprowadzony undervolting nie powinien skutkować dużym spadkiem wydajności. Bardzo często wydajność pozostaje na tym samym poziomie, karta pracuje natomiast ciszej i jest mniej prądożerna. Co ciekawe zdarzają się układy, w których obniżenie napięcia pozwala uzyskać lepszą wydajność.
Undervolting w praktyce
W wypadku kart z logo AMD w sterownikach Adrenalin mamy nawet opcję do automatycznego undervoltingu. Samo określenie undervoltingu w polskiej wersji sterowników zostało przetłumaczone na podnapięcie GPU. Trochę nieporadnie, ale wiadomo o co chodzi. Możemy je znaleźć w menu o tak samo intuicyjnej nazwie Dostrajanie (ang. Tuning). Możemy też wykonać underwolting ręcznie. W przypadku testowanych kart AMD ręczne ustawienie undervoltingu dało lepsze rezultaty. Na kolejnych slajdach pokażemy tę procedurę krok po kroku.
- Krok pierwszy - przechodzimy do zakładki dostrajanie i wybieramy tryb ręczny.
- Krok drugi - obniżamy napięcie rdzenia GPU, do momentu, aż komputer przestanie pracować stabilnie. Bardzo ważne: poprzez obniżenie napięcia na rdzeniu GPU nie uszkodzimy naszej karty graficznej. Po utracie stabilności nastąpi ponowne uruchomienie komputera - wystarczy skonfigurować ostatnie stabilne ustawienia i przetestować je. Szukanie stabilnego napięcia dla GPU potrafi być procesem czasochłonnym, więc nie powinniśmy się zniechęcać od razu.
- Krok trzeci - sprawdzamy stabilność uzyskanych ustawień. W przypadku testowanych kart graficznych AMD Radeon RX 5700 i 5600 XT wartością graniczną do stabilnej pracy układy granicznego było 0,825 V.
Operacja undervoltingu na kartach graficznych Nvidii nie jest tak intuicyjna jak w przypadku AMD. Po pierwsze, nie mamy dedykowanego menu w sterownikach, musimy posiłkować się aplikacjami firm trzecich. W laboratorium używamy oprogramowania MSI Afetrburner. Sam proces przebiega bardzo podobnie, obniżamy napięcie rdzenia do wartości, przy której stabilność jest niezachowana. Następnie szukamy kombinacji wartości częstotliwości rdzenia i jego napięcia, która nas zadowoli.
Jak przebiega cała procedura, przedstawiamy na kolejnych slajdach krok po kroku.
- Krok pierwszy - uruchamiamy MSI Afterburner, następnie wciskamy kombinację klawiszy Ctrl+F, otwiera się nowe okno z krzywą napięcia rdzenia i częstotliwości.
- Krok drugi - obniżamy krzywą, łapiąc myszką jeden z punktów i ze wciśniętym przyciskiem Shift przesuwamy całą krzywą do dołu.
- Krok trzeci - wybieramy pojedynczy punkt z krzywej, częstotliwości i napięć rdzenia i akceptujemy go, krzywa wtedy się ustawia.
Wyniki
Undervolting, okazał się strzałem w dziesiątkę dla testowanych kart graficznych, udało się uzyskać bardzo satysfakcjonujące rezultaty. Na kartach graficznych Nvidii spadek wydajności praktycznie nie występował, pomimo mniejszego napięcia na rdzeniu i niższym nastawom częstotliwości rdzenia.
AMD wypada odrobinę gorzej, AMD Radeon RX 5600 XT przed undervoltingiem osiągał średnią liczbę klatek na sekundę w Wiedźminie 3 na poziomie 64,1 kl./s. Po tym zabiegu wartość ta spada do 61,2 kl./s co naszym zdaniem jest nadal bardzo dobrym wynikiem. Wydajniejszy Radeon RX 5700 zachowuje się podobnie.
Podkręcanie kart graficznych
Możliwość podkręcenia karty graficznej to darmowy bonus od producentów kart graficznych. Jest on co prawda bardzo losowy, ale prawie zawsze możemy liczyć na delikatny wzrost wydajności. Przetestowaliśmy kilka kart graficznych, żeby sprawdzić, ile uda nam się podnieść ich wydajność i czy gra jest warta zachodu.
Producenci kart graficznych lubią chwalić się tym, że ich karta graficzna jest podkręcona względem modelu referencyjnego. Nawet takie modele mają jeszcze trochę zapasu wydajności. Dobrym przykładem jest ROG Strix RTX 2070. Ręcznie przeprowadzony proces OC skutkował zyskiem wydajności na poziomie 2 klatek na sekundę. W przypadku kart niepodkręconych fabrycznie możemy liczyć na wzrost wydajności wynoszący około od pięciu do dziesięciu procent, w sporadycznych przypadkach więcej.
Szyna danych w karcie graficznej: 192 bit kontra 256 bit - Co to jest?
Szyna danych to magistrala komunikacyjna karty graficznej, która odpowiada za przekazywanie (transmisję) danych pomiędzy rdzeniem karty graficznej a pamięcią VRAM. W przypadku karty graficznej komunikacja ta jest równoległa. Najważniejszym parametrem szyny danych jest jej szybkość. W wypadku równoległej transmisji liczba bitów proporcjonalnie przekłada się na wzrost szybkości wymiany danych.
Szyna danych (pamięci) - jak to wygląda w praktyce.
To bardzo prosty test, a ponieważ szerokość szyny danych to założenie nałożone przez producenta GPU i karty, to trudno jest wyizolować idealnie takie samo GPU z różną szerokością magistrali pamięci. Udało nam się to osiągnąć dzięki najnowszym kartom AMD z rodziny Navi.
Na rynku dostępne są bowiem dwie karty z praktycznie tym samy GPU i różną konfiguracją pamięci. Radeon RX 5700 ma szynę pamięci 256 bitów, natomiast Radeon RX 5600 XT wyposażano w pamięć o szerokości magistrali 192 bity. Właśnie tych dwóch kart graficznych użyliśmy do przeprowadzenia naszego eksperymentu.
Warunki eksperymentu.
Obie karty graficzne dysponują identycznym rdzeniem graficznym Navi i pamięciami VRAM o identycznej szybkości działania. Jedyną różnicą pomiędzy nimi jest pojemność modułów pamięci. Mocniejszy RX 5700 dysponuje 8 GB VRAM, a słabszy RX 5600 XT do swojej dyspozycji ma 6 GB. Naszym zadaniem było wybranie odpowiedniego tytułu, który nie będzie wymagał dużej ilości pamięci VRAM, ale nadal będzie wymagający. Nasz wybór padł na Wiedźmina 3.
Kolejnym warunkiem, jaki spełniliśmy, było ustawienie częstotliwości pracy rdzenia obydwu kart graficznych na jednakową częstotliwość (1680 MHz). Moduły pamięci w obydwu kartach graficznych pracowały z jednakową częstotliwością 14000 MHz - na rynku dostępne były różne wersje kart AMD Radeon RX 5600 XT. Kiedy już wszystko zostało ustawione, przystąpiliśmy do testów.
Wyniki
Wynik był przewidywalny, karta z szybszą magistralą danych okazała się szybsza, ale jej przewaga nad wolniejszym Radeonem to zaledwie średnio 3,6 klatki sekundę. To zaledwie 5 procent szybciej.
Rdzenie RT i ich wydajność w śledzeniu promieni
W najnowszych kartach graficznych Nvidii z serii RTX otrzymaliśmy kilka nowych rozwiązań technologicznych, z czego najważniejsze są rdzenie RT.
Śledzenie promieni w praktyce
Na dzień dzisiejszy gier wykorzystujących technikę ray tracingu jest mało, niewiele ponad 10 tytułów. Na szczególne wyróżnienie zasługują:
- Battlefield V ─ jest to pierwszy tytuł wykorzystujący efekty ray tracingu do symulacji naturalnych odbić w powierzchniach refleksyjnych.
- Control, który umiejętnie wykorzystuje rdzenie RT do generowania cieni i odbić.
- Metro: Exodus, które jako jedyny tytuł śledzenie promieni wykorzystuje do generowania całego oświetlenia w grze.
Karty graficzne z serii RTX wyposażone są w rdzenie RT, które w sposób sprzętowy przyspieszają wykonywanie obliczeń związanych ze śledzeniem promieni. Pojedynczy rdzeń RT może wykonywać dwie operacje. Sprawdzać, czy pojedynczy promień zderzył się z obiektem (pojedynczym werteksem) na scenie 3D lub obliczać, które struktury akceleracji BVH dany promień przecina (akceleracja BVH była opisywana w tym artykule).
Poszczególne karty graficzne serii RTX są wyposażone w różną liczbę rdzeni RT:
- GeForce RTX 2060 - 30 rdzeni RT
- GeForce RTX 2060 SUPER - 34 rdzeni RT
- GeForce RTX 2070 - 36 rdzeni RT
- GeForce RTX 2070 SUPER - 40 rdzeni RT
- GeForce RTX 2080 - 46 rdzeni RT
- GeForce RTX 2080 SUPER - 48 rdzeni RT
- GeForce RTX 2080 Ti - 68 rdzeni RT
Warunki eksperymentu
Jak zmierzyć wydajność samego RT nie angażując do tego rdzeni CUDA. To bardzo trudne, praktycznie niemożliwe zadanie. Dobierając odpowiednie oprogramowanie udało nam się jednak zniwelować użycie rdzeni CUDA.
Nasz wybór padł na syntetyczny benchmark Vray NEXT, w którym możemy sprawdzić, jak dana karta graficzna poradzi sobie z renderowaniem sceny 3D, która w całości generowana jest na podstawie obliczeń śledzenia promieni. Domyślnie otrzymujemy pojedynczy wynik, który określa, ile ścieżek śledzenia promieni udało się policzyć przez 60 sekund. Szukając trochę głębiej, możemy dowiedzieć się, ile ścieżek promieni zostało policzonych na sekundę dla jednego piksela oraz ile próbek maksymalnie pojedynczy piksel może przechować.
Wyniki
Dodatkowo dodaliśmy wynik, jaki osiągnął procesor Intel Core i7 8700K 4,9 GHz. Już na pierwszy rzut oka widać, że wraz ze wzrostem liczby rdzeni RT rośnie wydajność w liczbie przetworzonych promieni na scenie. Było to do przewidzenia. Dodatkowo teraz wiemy, że wydajność ta skaluje się liniowo, choć nie jesteśmy w stanie wykluczyć wszystkich zmiennych z tego testu, tylko je zminimalizować.
Wykres przedstawia maksymalną liczbę promieni prześledzonych na scenie 3D na sekundę.
Na wykresie pokazującym liczbę próbek, które może przechować pojedynczy piksel, widzimy te same wartości dla pięciu kart z siedmiu. Odpowiedzialna za to jest pojemność dostępnej pamięci VRAM, to w niej przechowywane są informacje o próbkowaniu. RTX 2060 dysponuje sześcioma gigabajtami VRAM, pozostałe karty użyte w teście dostępne mają odpowiednio 8 GB VRAM to te z wynikiem 432 próbek i 11 GB to GeForce RTX 2080 Ti on osiągnął wynik 576 próbek.
Znając wyniki z syntetycznego testu, postanowiliśmy, je przełożyć na bardziej przemawiające dla nas wyniki, jak w takim razie rdzenie RT mają wpływ na wydajność w grach. I znowu chcieliśmy wziąć tytuł, który jest najbardziej wymagający pod względem obliczeń RT. Ten warunek spełniło Metro: Exodus.
Wyniki, jakie otrzymaliśmy w Metro: Exodus udowadniają nam, jak duże znaczenie mają rdzenie RT dla obliczeń śledzenia promieni. Wydajność skalowała się idealnie wraz ze wzrostem rdzeni RT. Najwolniejszy RTX 2060 ma 30 rdzeni RT, jego wynik to średnio 26,9 kl./s. Najszybszy z przetestowanych modeli, 2080 Ti na swoim wyposażeniu ma 68 rdzeni RT. To o 125% więcej od najsłabszego RTX'a, jego średnia liczba wyświetlanych klatek na sekundę to 55,1, jest to o 105% wyższy wynik, niż w przypadku najsłabszego w stawce RTX'a 2060.