2× Radeon HD 4890 kontra GeForce GTX 295
Porównanie dwóch Radeonów HD 4890 do GeForce'a GTX 295 narzuca się wręcz automatycznie. W końcu GeForce GTX 275, będący bezpośrednim konkurentem HD 4890, to w praktyce „połowa” GeForce'a GTX 295 z trochę przyspieszonymi zegarami. Chcieliśmy porównać ze sobą te dwie konfiguracje już w dniu premiery nowych Radeonów i GeForce'ów, jednak nie pozwolił nam na to czas. Przed przejściem do właściwych testów przypomnimy tylko krótko uczestników dzisiejszego pojedynku.
GTX 295 | 2x HD 4890 | |
---|---|---|
Jednostki cieniujące | 240 x2 | 800 x2 |
Zegar rdzenia | 576 MHz | 850 MHz |
Zegar jednostek cieniujących | 1242 MHz | 850 MHz |
Zegar pamięci | 999 MHz | 975 MHz |
Szyna pamięci | 448 bitów x2 | 256 bitów x2 |
Ilość pamięci | 896 MB x2 | 1024 MB x2 |
Rodzaj pamięci | GDDR3 | GDDR5 |
Proces technologiczny | 55 nm | 55 nm |
Zestaw testowy
Testy wszystkich kart zostały przeprowadzone na następującej konfiguracji:
Model | Dostarczył | |
---|---|---|
Procesor: | Intel Core 2 Quad Q9650 @ 4,05 GHz (450×9) | www.komputronik.pl |
Płyta główna: | ASUS Rampage Extreme | pl.asus.com |
RAM: | Corsair XMS-3 1600 (2× 2 GB) @ 1500 MHz CL 7 7 7 21 | www.extrememem.pl |
Schładzacz procesora: | Noctua NH-U12P | www.noctua.at |
Dysk twardy: | Seagate Barracuda 7200.11 320 GB | www.seagate.com |
Zasilacz: | be quiet! Dark Power Pro 650 W | www.listan.pl |
Obudowa: | Ikonik Zaria A10 | www.ikonik.com |
Monitor: | HP LP3065 (30 cali, 2560×1600) | www.hp.pl |
System operacyjny to Windows Vista w wersji 64-bitowej. GeForce GTX 295 był obsługiwany przez sterowniki ForceWare w wersji 185.66, a duet kart AMD działał pod nadzorem Catalystów w wersji 9.4.
Wydajność – 3DMark Vantage
Sprawdzanie wydajności rozpoczynamy od dwóch wyników z 3DMarka Vantage.
Testy syntetyczne nie nadają się zbytnio do porównywania ze sobą kart dwóch producentów, ale za to nieźle pokazują różnice pomiędzy kartami tego samego producenta. W bardziej zależnym od procesora trybie Performance po dołożeniu drugiej karty HD 4890 zauważamy 62% wzrost liczby punktów. W trybie Extreme jest to 88%.
Wydajność – Call of Duty: World at War
W najnowszej grze z serii Call of Duty podwójny GeForce wyprzedza dość znacznie tandem kart AMD. Szczególnie uważnie należy się przyjrzeć wartościom minimalnym. Okazuje się, że w skrajnym przypadku dwie karty AMD generują w ciągu sekundy mniej klatek niż jedna. Co prawda w przypadku karty NVIDI-i takie zjawisko nie występuje, ale jest tak tylko na wykresach. W praktyce w krytycznym momencie naszej sceny testowej animacja jest przy podwójnej karcie odczuwalnie mniej płynna niż przy jednej. Technologie multi-GPU mają przed sobą jeszcze długą drogę do przebycia.
Wydajność – Crysis: Warhead
W Crysisie opowiadanym z innego punktu widzenia w niższych rozdzielczościach prowadzi karta NVIDI-i, natomiast w wyższej dwa Radeony zrównują się z GTX-em 295. Także tu w krytycznym momencie w przypadku dwóch Radeonów zauważamy podobny problem jak w Call of Duty: generują w ciągu sekundy mniej klatek, czego nie zauważyliśmy w przypadku podwójnego GeForce'a.
Wydajność – Enemy Territory: Quake Wars
W Enemy Territory: Quake Wars lekko prowadzą dwa Radeony, zarówno pod względem minimalnej, jak i średniej liczby klatek na sekundę. W najwyższej rozdzielczości odnotowujemy bardzo przyzwoity poziom skalowania: wydajność systemu wzrasta po dołożeniu drugiego Radeona HD 4890 o 87%.
Wydajność – Fallout 3
Fallout 3 w niższych rozdzielczościach należy do GeForce'a, natomiast w najwyższej na prowadzenie wysuwają się dwa Radeony. Nasza scena testowa okazała się mieć jakiś rodzaj wąskiego gardła w miejscu, w którym liczba klatek na sekundę jest najmniejsza, stąd też wyniki pomiarów nie różnią się od siebie zbytnio.
Wydajność – Far Cry 2
Gra korzystająca z silnika Dunia okazała się bardziej przychylna dla GeForce'a – prowadzi on o kilka procent we wszystkich testach. Warto zwrócić uwagę na wyniki dwóch Radeonów w rozdzielczości 2560×1600 – wzrost wydajności wynikły z dołączenia drugiej karty wynosi prawie 100%. Mimo to – punkt dla NVIDI-i.
Wydajność – Race Driver: GRID
Gra wyścigowa firmy Codemasters wykazuje przewagę dwóch Radeonów nad podwójnym GeForce'em, zarówno w średniej, jak i minimalnej liczbie klatek na sekundę. Poziom skalowania wydajności dwóch Radeonów i tym razem jest niezły.
Wydajność – Prince of Persia
Najnowsza część Prince of Persia w najbliższym czasie będzie się śniła po nocach programistom sterowników AMD. Nie dość, że karty AMD mają w tej grze bardzo słabą wydajność po włączeniu wygładzania krawędzi, to na dodatek CrossFire praktycznie... nie działa. Rezultatem tego jest bardzo mocna przewaga NVIDI-i.
Wydajność – S.T.A.L.K.E.R.: Clear Sky
W grze ze stalkerami obserwujemy bardzo wyraźną przewagę dwóch kart AMD nad GeForce'em GTX 295. Szczególnie widoczna jest ona w momencie włączenia wygładzania krawędzi. Bliższe przyjrzenie się wynikom ukazuje, że w rozdzielczości 1680×1050 po włączeniu 4-krotnego wygładzania krawędzi CrossFire ma... ponad 100% skalowanie. Mimo powtarzania pomiarów wyniki nie zmieniły się. Widocznie jest to efekt czarnej magii w wydaniu AMD ;)
Wydajność – Unreal Tournament 3
Na zakończenie pozostał Unreal Tournament 3. W najniższej z testowanych przez nas rozdzielczości prowadzi GeForce, natomiast w dwóch wyższych – konfiguracja CrossFire. W niższych rozdzielczościach konfiguracja z kartami AMD generowała w ciągu sekundy mniejszą liczbę klatek niż konfiguracja z najmocniejszym GeForce'em. Porównanie wyników pochodzących z różnych rozdzielczości wskazuje, że dwa Radeony HD 4890 napotykają po drodze jakieś wąskie gardło, które nie daje o sobie znać dopiero w najwyższej rozdzielczości. Unreal Tournament 3 jest przy tym trzecią grą w naszym zestawieniu, w której skalowanie CrossFire jest bliskie 100% w rozdzielczości 2560×1600.
Eksperyment 1. – Radeon HD 4890 i HD 4870 w trybie CrossFireX
Jedną z cech CrossFireX odróżniających tę technologię od SLI NVIDI-i jest to, że można łączyć ze sobą karty mające odmienną ilość pamięci oraz karty z różnych serii, które są do siebie podobne wydajnościowo. Wiemy na przykład, że da się ze sobą złączyć Radeona HD 4850 i HD 4870. Postanowiliśmy sprawdzić, czy jest możliwy „mezalians” Radeona HD 4890 z Radeonem HD 4870 512 MB.
Instalacja okazała się bezproblemowa. Druga karta została od razu wykryta i po kilku chwilach Catalysty chciały się dowiedzieć, czy mają włączyć tryb CrossFireX, na co oczywiście zgodziliśmy się.
Widzimy po wynikach, że karty faktycznie współpracowały ze sobą i osiągały razem trochę wyższą wydajność niż Radeon HD 4870 X2. Osoby posiadające Radeona HD 4870, które dostały ostatnio w prezencie jego odświeżonego brata, mogą śmiało te karty spinać ze sobą mostkiem.
Eksperyment 2. – modyfikacja BIOS-u Radeona HD 4890
W artykule o nowym GeForsie i Radeonie wspominaliśmy o tym, że możliwa jest zmiana napięcia zasilającego układ graficzny za pomocą oprogramowania, które ASUS dołącza do swoich kart. Wspominaliśmy też, że posiadacze kart innych producentów będą mogli korzystać z tego programu, gdy wgrają do swoich kart BIOS od karty ASUS-a. W czasie testów okazało się jednak, że jest jeszcze jeden sposób na zmianę napięcia zasilania układu graficznego: odpowiednia modyfikacja BIOS-u karty. Okazuje się, że oba układy odpowiedzialne za regulację napięcia rdzenia (jeden zajmuje się zasilaniem głównej części rdzenia, drugi – kontrolera pamięci i okolic) pobierają dane na temat tego, jakie mają podać napięcie, z BIOS-u. Układ zasilania tej karty jest wykonany na tyle solidnie, że bez problemu radzi sobie z dostarczaniem prądu dla GPU taktowanego zegarem 1,2 GHz i zasilanego napięciem 1,5 V. Nie sprawdzaliśmy, jakie maksymalne napięcie można ustawić, i Wy też nie powinniście tego robić bez ekstremalnych układów chłodzenia ;)
Nasze eksperymenty z BIOS-em nasunęły nam jeszcze jeden pomysł. Uznaliśmy, że warto byłoby przygotować w pełni zmodyfikowany BIOS dla tych kart i udostępnić go publicznie. Nasze modyfikacje objęły: wyciszenie wentylatora, zwiększenie napięcia zasilającego w trybie 3D, przyspieszenie nominalnych zegarów taktujących kartę graficzną. Efekt swojej pracy zamieszczamy poniżej:
Radeon HD 4890 BIOS by PCLab.pl
Podstawowe zmiany to:
- napięcie zasilające w trybie 3D ustawione na 1,41 V (przy takim napięciu karty, które mamy w redakcji, działały stabilnie z zegarem rdzenia ustawionym na 1000 MHz),
- bardzo cichy tryb 2D (20% prędkości obrotowej wentylatora i temperatura w okolicach 76°C),
- wyciszony wentylator w trybie 3D (przy 1,41 V i zegarach ustawionych na 1000/1200 MHz wentylator rozkręcał się do 36%, a układ graficzny rozgrzewał się do 87°C),
- domyślne zegary 3D ustawione na 950/1150 MHz,
- karta graficzna po wgraniu tego BIOS-u przedstawia się jako produkt ASUS-a.
Próbowaliśmy też zmusić kartę do zmniejszania częstotliwości taktowania pamięci karty w trybie 2D. Skutkiem tych prób było ciągłe miganie ekranu przy przechodzeniu z trybu 2D do trybu 3D. Na przykład w trakcie ładowania poziomu w Crysisie ekran migał cztery razy. W czasie uruchamiania się systemu to zjawisko też występowało. Niestety, dopóki AMD nie zmieni czegoś w implementacji pamięci GDDR5 na swoich kartach, to jedynym sensownym sposobem spowolnienia zegarów karty w trybie 2D jest przesunięcie suwaka w CCC.
Oczywiście nie ponosimy żadnej odpowiedzialności za wszelkie usterki spowodowane wgraniem tego BIOS-u ani nie dajemy żadnej gwarancji, że będzie to działać jak trzeba na wszystkich kartach. Jeśli ktoś jednak nie boi się ryzyka i chce wycisnąć z karty wszystko, co się da, to zachęcamy do testowania i dzielenia się swoimi spostrzeżeniami.
Eksperyment 3. – o ile wydajniejszy jest GeForce GTX 285 od tak samo taktowanego GeForce'a GTX 275?
Dane techniczne GeForce'a GTX 275 bardzo przypominają najmocniejszą jednoukładową kartę NVIDI-i – GeForce'a GTX 285. Karty te mają podobne taktowanie i tę samą liczbę jednostek cieniowania. Różnią się jedynie pojemnością pamięci oraz jej szyną. Jak ta różnica przekłada się na wydajność? Postanowiliśmy to sprawdzić, ustawiając zegary taktujące GeForce'a GTX 275 na wartości typowe dla GeForce'a GTX 285.
Jak można było się spodziewać – różnica nie jest duża. Dodatkowa przepustowość szyny pamięci daje GeForce'owi GTX 285 2–3% wydajności. Główna różnica między GeForce'em GTX 285 a GTX 275 to lepsze kości pamięci użyte w tym pierwszym, które mogą działać z częstotliwością przekraczającą 1,4 GHz, i to właśnie te kości są w głównej mierze odpowiedzialne za wyższą cenę GeForce'a GTX 285.
Podkręcanie na zimno
Zachęceni możliwością regulacji napięcia bez potrzeby lutowania, postanowiliśmy zobaczyć, jak karty zachowują się, gdy są chłodzone suchym lodem. Po zaopatrzeniu się w dwa duże bloki suchego lodu i wgraniu BIOS-u z napięciem 1,43 V przystąpiliśmy do testów. Poniżej zamieszczamy kilka poglądowych fotografii.
Podkręcanie na zimno – wyniki
Po tych wszystkich przygotowaniach nadszedł czas na wyniki. Głównodowodzącym misji był Mateusz Brzostek, a ja byłem głównym rozbijaczem lodu ;)
Z dwóch kart, które mieliśmy w redakcji, lepiej podkręcała się karta Sapphire'a. Przy napięciu 1,43 V byliśmy w stanie ukończyć przebieg 3DMarka Vantage z zegarami 1200/1200 MHz. Aby komputer mógł zakończyć test w programie 3DMark06, trzeba było obniżyć taktowanie rdzenia do 1150 MHz.
Nasze wyniki są obecnie piątym wynikiem na świecie osiągniętym przez Radeona HD 4890 w programie 3DMark06 oraz pierwszym w 3DMarku Vantage w trybie Performance.
W trybie CrossFire hamowała nas trochę druga karta, która osiągała „jedynie” 1100/1100 MHz.
Oczywiście stare powiedzenie, że apetyt rośnie w miarę jedzenia, sprawdza się i tutaj. Już mamy plany, aby powrócić do tych kart z zapasem azotu, dzięki czemu będzie można mierzyć trochę wyżej ;)
Podsumowanie
Skoro Radeon HD 4890 wydajnościowo jest bardzo zbliżony do GeForce'a GTX 275, a ten GeForce to trochę szybsza połówka GTX-a 295, to teoretycznie CrossFire powinno prowadzić przed kanapką NVIDI-i. Należy jednak pamiętać o tym, że wydajność rozwiązań multi-GPU w głównej mierze zależy od sterowników, a nie szybkości poszczególnych układów. Dlatego też uzyskane przez nas wyniki nie są tak jednoznaczne, jakby wskazywała na to teoria. Owszem, szczególnie w wyższych rozdzielczościach duet kart AMD często bez problemu radzi sobie z kartą NVIDI-i, ale w niższych jest już gorzej. W rozdzielczości 2560×1600 duet Radeonów wygrywa w pięciu z siedmiu gier testowanych przez nas przy tych ustawieniach oraz wyraźnie prowadzi w S.T.A.L.K.E.R.-rze, zapewne dzięki temu, że wydajność CrossFire skaluje się w tej grze doskonale. W Far Cry 2 pomimo świetnego skalowania dwa Radeony nie dają rady GeForce'owi.
Pozostają nam do omówienia jeszcze trzy tytuły, w których CrossFire przegrywa sromotnie z podwójnym GeForce'em – przynajmniej na pierwszy rzut oka. Po pierwsze – Prince of Persia, w którym to CrossFire na razie po prostu nie działa. Po drugie – Call of Duty, w którym dwie karty w krytycznym momencie potrafiły wygenerować w ciągu sekundy mniej klatek niż jedna, oraz Crysis: Warhead, w którym pomimo przyzwoitej średniej liczby klatek na sekundę tandem kart – tak samo jak w Call of Duty – uzyskał gorszą minimalną liczbę klatek na sekundę niż jedna karta. Jednak w dwóch ostatnich przypadkach liczby nie do końca oddają stan faktyczny – GeForce również w tych grach ma problem z minimalną liczbą klatek na sekundę, tylko że pomiar FRAPS-em tego nie pokaże. Wystarczy jednak spojrzeć na monitor, aby zauważyć, że coś jest nie tak. Reasumując: w najwyższych ustawieniach mamy pięć zwycięstw CrossFire, jedno NVIDI-i, jedną grę, w której CrossFire nie działa, oraz dwie, w których obie technologie mają problemy z właściwym renderowaniem obrazu.
Pomimo rozwoju technologii mających na celu skuteczne wykorzystywanie większej liczby układów graficznych związane z nimi problemy nie zmieniają się. Nadal o wydajności decydują przede wszystkim sterowniki. Nadal gry świeżo po wydaniu mają problemy z działaniem na podwójnych kartach albo trzeba czekać, zanim wzrost wydajności wynikający z zamontowania dodatkowych kart będzie satysfakcjonujący. Nadal zauważamy w niektórych grach znikające lub migające tekstury i nadal zdarza się, że to, co widzimy, rozmija się ze wskazaniami programów do mierzenia średniej liczby klatek na sekundę. Cieszy jedynie to, że te problemy przeważnie są z czasem rozwiązywane i pojawiają się coraz rzadziej.
Zarówno AMD, jak i NVIDIA ciężko pracują nad tym, aby rozwiązania multi-GPU działały, i to jak najlepiej, ale nadal nie możemy nikomu z czystym sumieniem polecić któregokolwiek z nich, ponieważ nadal są one problematyczne i nie są pełnowartościowym ekwiwalentem kart z jednym układem graficznym na pokładzie. Możemy jedynie powiedzieć, że rozwiązanie NVIDI-i wydało nam się trochę mniej problematyczne, mimo że oferuje trochę mniejszą ogólną wydajność.
Przy okazji mogliśmy przyjrzeć się trochę bliżej opisywanym niedawno nowym Radeonom i GeForce'om. Na początek kilka słów o NVIDI-i. Na rynku obecnie można znaleźć sześć wariantów kart opartych na układzie GT200: niedobitki GeForce'ów GTX 260 „core 192” i GeForce'ów GTX 280, GeForce'a GTX 260 Core 216 (w wersji 65 i 55 nm), GeForce'a GTX 275 i GeForce'a GTX 285. Po bliższym przyjrzeniu się tym kartom okazuje się, że jest to podział dość sztuczny – karty te różnią się standardową wydajnością, jednak nie różnią się zbytnio możliwą do uzyskania.
Gdy na rynku pojawiły się pierwsze karty z tymi układami (GTX 260 i 280), to różnica wydajnościowa pomiędzy kartą mocniejszą a słabszą była dość wyraźna – nawet gdy były taktowane tymi samymi zegarami, to różnica nadal była kilkunastoprocentowa. Później sytuacja zaczęła się komplikować. Wersja Core 216 GeForce'ów GTX 260 zbliżyła się do GeForce'a GTX 280 o kilka procent, przez co opłacalność tego drugiego stanęła pod znakiem zapytania. Później wyszedł GeForce GTX 285, który w praktyce zastąpił GTX-a 280 i zwiększył trochę przewagę funkcjonalną nad Core'em 216 dzięki szybszym układom pamięci. Teraz jednak na rynku pojawia się GeForce GTX 275. Ma on wydajność praktycznie taką samą jak wcześniej GTX 280 i funkcjonalnie jest bardzo blisko najwyższego modelu GeForce'a – przy takich samych zegarach taktujących różnica w wydajności pomiędzy GTX-em 285 a 275 to jedynie 2–3%, natomiast różnica w cenie jest dość znaczna. W praktyce wygląda to teraz tak, że mamy GeForce'a GTX 260 Core 216, który jest o 5% wolniejszy od GeForce'a GTX 275, który jest o 3% wolniejszy od GeForce'a GTX 285, a różnica w cenie pomiędzy tym pierwszym a ostatnim wynosi ponad 500 zł. Oczywiście dotyczy to tylko porównania tak samo taktowanych kart, jednak nie ma technicznych ograniczeń, które by to uniemożliwiały. Jedynie GTX 285 wybija się trochę przed swoich młodszych braci dzięki temu, że ma lepsze kości pamięci, mogące działać z prędkością przeszło 1,4 GHz, dzięki czemu po maksymalnym podkręceniu staje się o kilka dodatkowych procent szybszy od reszty stawki. Widzimy więc, że NVIDIA została zmuszona do zaoferowania w niższych segmentach rynku kart, które funkcjonalnie bardzo nieznacznie różnią się od najwyższego modelu. Szczególnie to widać po GTX-ie 275, który to różni się od GTX-a 285 zastosowanymi kośćmi pamięci i trochę węższą jej szyną – pomiędzy te dwie karty nie da się już nic „wcisnąć”.
Firmie AMD udało się uniknąć takiej sytuacji i jej zestaw kart graficznych jest bardziej przejrzysty. Jest Radeon HD 4870 i Radeon HD 4890, który może działać ze znacznie szybszymi zegarami niż jego pierwowzór oraz ma wydajność po podkręceniu bardzo zbliżoną do wydajności podkręconego GTX-a 285. I to właśnie możliwości podkręcania odświeżonego Radeona bardzo się nam spodobały, mimo że sama karta nie jest ani rewolucyjna, ani jakoś specjalnie opłacalna.