artykuły

Radeon R9 290X kontra GeForce GTX 970 zależnie od wydajności procesora

AMD czy Nvidia lepiej wykorzystuje nowoczesne procesory w grach?

185 28 grudnia 2014, 21:12 Radosław Stanisławski

Radeon R9 290X i GeForce GTX 970 to dwie karty graficzne w zbliżonej cenie. Modele niereferencyjne (tylko takie warto kupić) kosztują 1400–1500 złotych. Testów porównujących wydajność tych konstrukcji nie brakuje (również u nas), ale tym razem postanowiliśmy dokładniej się przyjrzeć obciążeniu procesora przez sterownik graficzny. W testach sprzętu komputerowego w grach zwracamy na to uwagę, opublikowaliśmy też serię kilku artykułów, w których porównywaliśmy dwie karty w połączeniu z dwoma procesorami. Dzisiejszy jest zdecydowanie obszerniejszy i szczegółowo przedstawia właśnie to zagadnienie.

Spis treści

Wydajność kart graficznych ≠ wydajność kart graficznych

Już wielokrotnie podchodziliśmy do tematu sposobów testowania kart graficznych i procesorów w grach. Wbrew pozorom nie jest to proste zagadnienie. Najlepszym przykładem jest porównanie wyników Radeona R9 290X i GeForce'a GTX 780 z tych oto trzech artykułów:

  1. GeForce GTX 970 – test (19 września 2014 r., Core i7-4770K @ 4,5 GHz).
  2. Radeon R9 290X kontra GeForce GTX 780 (22 maja 2014 r., Core i5-4690).
  3. Radeon R9 290X – test kart niereferencyjnych (19 grudnia 2013 r., Core i7-2600K @ 4,7 GHz).

Choć trudno te wyniki bezpośrednio porównywać, gdyż nie zawsze częstotliwości taktowania kart są takie same, Radeon R9 290X na tle GeForce'a GTX 780 lub 780 GHz (mocno przyspieszony GTX 780) wyraźnie traci w drugim z wymienionych testów. Z czego wynikają różnice?

AMD Radeon R9 290X

Oczywiście, jednym z powodów są sterowniki kart graficznych, które cały czas są modernizowane. Druga kwestia to procesor. Wieść gminna niesie, że Nvidia optymalizuje swoje oprogramowanie pod kątem procesorów Intel Haswell (platformą w trzecim teście był Sandy Bridge). Jeszcze nie sprawdzaliśmy tego szczegółowo, ale niebawem to zrobimy. Trzecia i w sumie najważniejsza – temat dzisiejszej publikacji – to wydajność procesora i jej wpływ na wydajność kart graficznych, a dokładniej: na relacje między nimi. Radeon R9 290X największą stratę do karty Nvidii zaliczył właśnie we współpracy ze stosunkowo wolnymi procesorami: Core i5-4690 (standardowo taktowanym) i AMD FX-8320 (podkręconym do 4,7 GHz). Dlaczego? Czas na mały powrót do przeszłości, do testu kart graficznych i procesorów w grze Battlefield 4 (opublikowanego 29 października 2013 r., jeszcze przed aktualizacją wprowadzającą obsługę Mantle).

W testach kart graficznych pokazaliśmy taki oto wykres:

Wprawne oko zauważy, że zestaw GeForce GTX 770 + Core i5-4670K @ 4,5 GHz jest szybszy od GTX-a 780 w tandemie ze standardowo taktowanym Core i5-4670K. Jednocześnie w razie użycia tego procesora (niepodkręconego) nie ma w zasadzie różnicy, czy karta graficzna to GTX 770 czy GTX 780, bo i tak wydajność będzie bardzo zbliżona. Podobnie jest w przypadku AMD FX-8350 (niezależnie od jego taktowania). Taka sytuacja występuje wtedy, gdy procesor ogranicza wydajność i szybsza karta graficzna już nic nie zmieni (szczegółowy opis).

Jeszcze bardziej interesująca jest analiza wydajności kart AMD. Radeon R9 290X nawet w połączeniu z najszybszym procesorem (Core i5-4670K @ 4,5 GHz) i tak jest wolniejszy od GeForce'a GTX 770/780 współpracującego ze standardowo taktowanym Core i5-4670K. Wyniki te jasno wskazują, że to sterowniki Nvidia GeForce lepiej wykorzystywały procesor, osiągając wyższą wydajność w sytuacji, gdy ogranicza on wydajność, czyli na przykład w czasie walki. Dlaczego to takie ważne?

Testować wydajność można na „wycieczkach krajoznawczych”, ale też w trakcie potyczek. Obszerniej pisaliśmy o tym w artykule o miejscach testowych w grach. Naszym zdaniem istotniejsze z punktu widzenia komfortu rozgrywki i w ogóle dla przejścia gry są momenty, gdy trzeba z kimś walczyć, przeprowadzić jakąś akcję itd. W końcu 15 kl./s podczas spaceru przez las z wioski A do wioski B w sumie nie przeszkodzi zanadto w ukończeniu przygody. Taka sama liczba klatek podczas prób anihilacji wrogów może oznaczać, że właśnie na próbach się skończy, bo przy takiej płynności skuteczne celowanie jest praktycznie niemożliwe, a przynajmniej mocno utrudnione. Właśnie z tego powodu do swoich testów coraz częściej wybieramy miejsca, w których coś się dzieje i trzeba się na tym skupić.

Wróćmy jeszcze do sterowników. Warto też pokazać sytuacje odwrotną:

Ta sytuacja również należy już do przeszłości, gdyż jak wiemy, Nvidia wreszcie poprawiła współpracę swoich kart z procesorami dwuwątkowymi. Widać jednak wyraźnie, że układ dwurdzeniowy pozwalał wykazać zdecydowanie wyższą wydajność Radeona R9 290X. Ten sam test, te same ustawienia, ta sama wersja gry i sterowników, ale zmieniamy procesor – i GeForce GTX 780 jest szybszy od 290X.

Dlaczego to wszystko jest ważne?

„Czy mój procesor wystarczy do karty graficznej X?”

To pytanie często się pojawia na forach dyskusyjnych. Według społeczności komputerowej istnieje złoty środek – karta graficzna optymalna do danego procesora. My jesteśmy przeciwni tego typu uproszczeniom, bo jak już wykazaliśmy, wszystko zależy od gry. Inaczej będzie to wyglądać w Metro: Last Light, a inaczej w Battlefield 4. Wiele osób ma w komputerze starszy procesor, którego jeszcze nie chce się pozbywać, ale kartę graficzną – owszem, chętnie wymieni. Nie ma się co dziwić, gdyż kupiony w 2011 roku Core i5-2500K (szczególnie podkręcony) wciąż jest bardzo wydajny, a karty z tamtego okresu (GeForce GTX 580 lub Radeon HD 6970) – już nie bardzo. Dodatkowo gracze, którzy obecnie kupują gotowe komputery do gier, nie zawsze podkręcają podzespoły, jak również nie zawsze wybierają procesory pozwalające mocno się przyspieszyć (choćby za sprawą odblokowanego mnożnika). Już wykazaliśmy (odpowiednie odnośniki zamieściliśmy na początku tej strony), że testy kart graficznych przeprowadzone w konfiguracji z najszybszym obecnie procesorem (oczywiście odpowiednio podkręconym) nie są reprezentatywne dla konfiguracji wyposażonych w wolniejsze procesory. A to już sporo zmienia i wymaga dalszej analizy.

Asus GeForce GTX 970 Strix

Właśnie dlatego powstał ten artykuł. Sprawdzamy w nim na przykładzie dwóch kart graficznych: MSI Radeon R9 290X Lightning oraz Asus GeForce GTX 970 Strix, który producent GPU lepiej optymalizuje sterowniki pod kątem nowoczesnych procesorów. Niejako przy okazji się okaże, która konfiguracja jest optymalna.

Strona:
mocu1987Zobacz profil
Poziom ostrzeżenia: 0%
mocu19872014.12.28, 21:18
27#1
Nie próżnowaliście w ten weekend :)
Z tego co widzę kolor czerwony dla AMD dzisiaj jest jedynie kolorem alarmowym/ostrzegawczym dla potencjalnego klienta by ich nie kupować - a broń Boże łączyć.
franczescoZobacz profil
Poziom ostrzeżenia: 0%
franczesco2014.12.28, 21:23
26#2
Zasadniczo było o tym już wiadomo wcześniej (od roku?) ale dobrze że pojawił się osobny artykuł wykładający to na tacy
GJ :)
SunTzuZobacz profil
Poziom ostrzeżenia: 0%
SunTzu2014.12.28, 21:24
20#3
Jedna z prężniejszych redakcji, sporo świetnych artów wyszło. Brawo!
Niech mi ktoś powie, że nie ma o czym pisać w PC...

Czegoś nie rozumiem. W podsumowaniu piszecie, że
sterowniki Nvidii lepiej wykorzystują dodatkowe wątki procesorów, dzięki czemu różnica między poszczególnymi rodzinami procesorów w przypadku GeForce'a będzie inna niż w przypadku Radeona. Na przykładzie tego artykułu też to widać.

Jeśli to prawdziwa teza...
To im większy wzrost wydajności dzięki większej liczbie wątków tym lepsze wykorzystanie wielowątkowości?

To przykład z i7 vs i5 średnio to wychodzi. Skoro większa różnica jest na AMD. Można powiedzieć, że to AMD lepiej wykorzystuje więcej wątków Intel-a.
Edward KenwayZobacz profil
Poziom ostrzeżenia: 0%
Edward Kenway2014.12.28, 21:25
28#4
i dobrze czym więcej testów i to rzetelnych tym lepiej, brawo pclab!
mefisto777Zobacz profil
Poziom ostrzeżenia: 0%
mefisto7772014.12.28, 21:25
16#5
Śmieszna sprawa, AMD daje lipę dla linuxa, a teraz i dla Windowsa nie jest tak kolorowo.
Programiści nie nadążają za inżynierami projektującymi układy.
W wersjach mobilnych jest to samo, a sterowników obsługujących dual graphics nie ma do tej pory dla trinity.

Mam nadzieje, że AMD dostanie nauczkę i w ciągu roku wyrówna niedociągnięcia. W końcu w przyszłym roku nowe karty.
jaskólZobacz profil
Poziom ostrzeżenia: 0%
jaskól2014.12.28, 21:25
20#6
Wychodzi na to, że do ceny Radeona trzeba doliczyć szybszy procesor i najlepiej lepszy cooler żeby go podkręcić. Mocno słabe :(
mediaexpertZobacz profil
Poziom ostrzeżenia: 0%
mediaexpert2014.12.28, 21:27
10#7
Można prosić o coś podobnego dla Core i3 i FX 6300 z bardziej przyziemnymi kartami graficznymi?
storm84Zobacz profil
Poziom ostrzeżenia: 0%
storm842014.12.28, 21:31
23#8
Dzięki za artykuł! Przejrzałem na oczy. Miesiąc temu wymieniłem Radeona 290; jednak za głośny i za gorący dla mnie; na GTX'a 970 Asusa i zastanawiałem się dlaczego mój 3350P tak bardzo przyspieszył. Prawie jak drugie życie CPU
smilehunterZobacz profil
Poziom ostrzeżenia: 0%
smilehunter2014.12.28, 21:32
33#9
AMD + AMD to aktualnie najgorsze połączenie. Dobre.
Jacek13Zobacz profil
Poziom ostrzeżenia: 0%
Jacek132014.12.28, 21:33
Czemu nie ma Wiedźmina 2? :cry:
Zaloguj się, by móc komentować
1