artykuły

GeForce FX 5800 Ultra - recenzja na żywo [zakończona]

28 marca 2003, 13:15 Paweł Pilarczyk
Wreszcie są - karty graficzne z układami NVIDIA GeForce FX 5800 Ultra! Czekaliśmy niemal pół roku, aż trafią one na półki sklepowe. W tym tygodniu pierwsze egzemplarze dotarły także do Polski. W naszym laboratorium rozpoczynamy właśnie testy trzech kart graficznych z układami GeForce FX 5800 Ultra: Gainward FX PowerPack! Ultra/1000 PLUS, PNY Verto FX 5800 Ultra oraz MSI FX5800 Ultra-TD8X. Zapraszamy do aktywnego uczestniczenia w naszej recenzji. Wspólnie przekonamy się, co tak naprawdę potrafi GeForce FX.

Spis treści



GeForce FX - co siedzi w środku

13:17 Układ o nazwie handlowej "GeForce FX" znany był już przez wiele miesięcy przed swoją światową premierą pod nazwą kodową NV30. Wiadomo było, że produkowany będzie w technologii 0,13 mikrona i że będzie w pełni zgodny z DirectX 9.0, a więc że zostanie wyposażony w jednostki cieniowania wierzchołków 2.0 (Vertex Shader 2.0) i cieniowania pikseli 2.0 (Pixel Shader 2.0). Spekulowano natomiast na temat tego, czym GF FX wyróżniać się będzie na tle innych układów graficznych (np. konkurencyjnego ATI R300), jednak pełne dane oficjalnie zaprezentowano dopiero w listopadzie ubiegłego roku, wraz z ogłoszeniem nazwy "GeForce FX".


15:06 W dniu premiery GeForce FX, NVIDIA odkryła już wszystkie dane techniczne układu. Produkowany jest on w technologii 0,13 mirkona w fabrykach TSMC i składa się aż ze 125 milionów tranzystorów. Dla porównania, ATI R300 (RADEON 9700) to chip zbudowany ze 110 milionów tranzystorów. NVIDIA, podobnie jak ATI, wybrała obudowę FCPGA (Flip Chip Ball Grid Array) dla swojego nowego procesora graficznego.


Jądro NV30 chronione jest aluminiowym odpromienniaczem ciepła (Heat Spreader)

Architektura NV30, jak na nowoczesny układ graficzny przystało, jest od początku do końca zmiennoprzecinkowa. Układ ma oficjalnie osiem potoków renderujących, w każdym po jednej jednostce mapującej tekstury. Nie tak dawno odkryto, że NVIDIA trochę oszukuje swych konsumentów, bowiem układ ma tak naprawdę tylko cztery potoki renderujące, a w każdym po dwie jednostki TMU. Układ teksturujący jest zatem zbliżony do GeForce4 Ti. NV30 potrafi jednak mapować 16 tekstur w jednym przejściu, podobnie zresztą, jak ATI R300.


Jądro NV30

Gruntownym zmianom poddano natomiast jednostkę cieniowania wierzchołków (Vertex Shader). Jak pamiętacie, GeForce4 Ti posiadał dwie oddzielne jednostki tego typu. Tymczasem GeForce FX ma jedną, ale składającą się z wielu zmiennoprzecinkowych procesorów, zdolnych do równoległej pracy. Stąd nazwa tej jednostki - Massively Parallel Vertex Shader Engine, co przetłumaczyć możemy mniej-więcej tak: "Zaawansowana (bo przecież nie Masywna! :-)) Równoległa Jednostka Cieniwania Wierzchołków". Według NVIDII, Vertex Shader NV30 potrafi przetworzyć aż 375 milionów trójkątów na sekundę. Wow!

Jednostka cieniowania wierzchołków zintegrowana wewnątrz GeForce FX jest w pełni zgodna ze specyfikacją 2.0, jednak w dużym stopniu wychodzi ponad tę specyfikację. Przykładowo, kod programu Vertex Shadera może zawierać maksymalnie 65 tys. instrukcji, podczas gdy specyfikacja Vertex Shader 2.0 przewiduje jedynie 1024 instrukcje. Program może zawierać również nawet 256 pętli (wg specyfikacji VS 2.0 wystarczą 4). Dodano także możliwość wywoływania funkcji i powrotu z nich do kodu głównego programu (Call & Return). Porównanie możliwości jednostki cieniowania wierzchołków zawartej w NV30 do tej obecnej w ATI R300, a także tej opisanej przez specyfikację VS 1.1 wchodzącą w skład DirectX 8.0 przedstawiamy poniżej:


15:27 NV30 posiada także zaawansowaną jednostkę cieniowania pikseli (Pixel Shader). Ona także przekracza specyfikacją PS 2.0. Zresztą najlepiej zobrazujemy to w tabelce:


Wiele z wymienionych parametrów odpowiada już specyfikacji Pixel Shader 3.0 (!), np. swizzling (nie za bardzo wiemy, jak przetłumaczyć ten termin na język polski :-)).

16:02 Wraz z GeForce FX pojawiło się pojęcie "CineFX". Cóż ono oznacza? Skrót pochodzi od słów "Cinematic Effects", czyli "efekty kinowe", a termin określa umiejętność tworzenia fotorealistycznej grafiki 3D przez nowy układ NVIDII. Dużą rolę odgrywa tu operowanie na zmiennoprzecinkowym kolorze o 128-bitowej precyzji. Co ciekawe, NVIDIA w swoich prezentacjach prezentuje tabelkę, z której wynika, że ATI R300 operuje wyłącznie na 32-bitowym kolorze. Tymczasem prawda jest taka, że R300 również potrafi generować 128-bitowy kolor zmiennoprzecinkowy (Floating-Point), co firma demonstruje w swoich programach z kolorowym samochodem czy przezroczystymi kulkami (patrz tutaj). Pisaliśmy o tym zresztą w naszej recenzji karty HIS Excalibur RADEON 9700 PRO.

16:21 GeForce FX został wyposażony w krzyżowy kontroler pamięci o 128-bitowej szynie danych (składający się tak naprawdę z czterech niezależnych, 32-bitowych kontrolerów pamięci). Podobną architekturą cechował się GeForce4 Ti. Tymczasem ATI R300 ma 256-bitowy kontroler pamięci, który przy tym samym taktowaniu potrafi przesłać dwukrotnie więcej danych.

Aby dorównać przepustowością pamięci, NVIDIA wybrała pamięci DDR-II, których główną zaletą jest możliwość pracy ze znacznie wyższymi zegarami. Na kartach GeForce FX 5800 Ultra taktowanie pamięci wynosi aż 1 GHz efektywnie! Daje to przepustowość na poziomie ok. 16 GB/s przy 128-bitowej magistrali. Nadal mniej, niż oferuje R300 (19 GB/s).

NVIDIA zastosowała jednak bardzo sprytną technologię, którą nazwała Intellisample. Składa się ona z kilku składników. Najważniejszym z nich jest kompresja koloru. Jednostka odpowiadająca za kompresję została umieszczona pomiędzy układem renderującym a pamięcią, dzięki czemu obrazy wygenerowane przez układ graficzny już w postaci skompresowanej trafiają do pamięci. Według NVIDII, współczynnik kompresji dochodzi do 4:1, co daje szczytowo nawet przepustowość 48 GB/s. Algorytmy kompresji koloru działają najefektywniej przy włączonym wygładzaniu krawędzi, dzięki czemu teoretycznie GeForce FX z włączonym anty-aliasingiem prawie w ogóle nie zwalnia. Czy tak jest naprawdę - przekonamy się.

Skoro już wspomnieliśmy o wygładzaniu krawędzi, warto dodać, że GeForce FX udostępnia nowe tryby AA: 6XS oraz 8X. W dalszej części recenzji zbadamy, jaką jakością cechują się nowe tryby anty-aliasingu.

Na technologię Intellisample składa się ponadto jeszcze wydajniejszy algorytm czyszczenia bufora Z, a także algorytm czyszczenia koloru w buforze ramki. GeForce FX udostępnia także udoskonalone, adaptywne (samodostosowujące się) algorytmy filtrowania trójliniweego i anizotropowego. Można wybrać pomiędzy trybem o bardzo wysokiej wydajności, ale ciut gorszej jakości obrazu a trybem o najwyższej jakości obrazu, jednak z nieco większym spadkiem wydajności.

16:45 Jeszcze kilka słów o taktowaniu. Specyfikacja GeForce FX 5800 Ultra zakłada pracę układu graficznego z częstotliwością 500 MHz, a pamięci - 1 GHz (efektywnie). Przy takich wartościach NV30 bardzo się grzeje i musi być chłodzony niezwykle wydajnymi wiatrakami. W swoim projekcie referencyjnym NVIDIA stworzyła system FX Flow, który polega na wyprowadzanie gorącego powietrza specjalnym tunelem na zewnątrz obudowy komputera. System ten już od jakiegoś czasu stosowany jest przez ABITa pod nazwą OTES (Outside Thermal Exhaust System). Niestety wiatraczek w systemie FX Flow jest na tyle głośny, że powstało już wiele żartów w internecie na jego temat. Ich zbiór znajdziecie tutaj.

W niniejszej recenzji przyjrzymy się trzem różnym kartom graficznym GeForce FX 5800 Ultra - produkcji Gainwarda, PNY i MSI. Sprawdzimy także, jak firmy te rozwiązały problem chłodzenia.

Na rynku pojawiły się także karty GeForce FX 5800, bez przyrostka Ultra. Ich taktowanie jest nieco niższe - 400/800 MHz (układ graficzny/pamięć). Większość z nich ma także już zwykłe, ciche wiatraczki.

Strona:
srekal34Zobacz profil
Poziom ostrzeżenia: 0%
srekal342003.03.28, 13:34
Pierwszy test FX w Polsce!! Brawo!! I pierwszy komentarz:)
SherifZobacz profil
Poziom ostrzeżenia: 0%
Sherif2003.03.28, 13:59
A zatyczki do uszu macie ? smilies/smile.gif
SherifZobacz profil
Poziom ostrzeżenia: 0%
Sherif2003.03.28, 14:00
A zatyczki do uszu macie, czy są w komplecie z kartą ? smilies/smile.gif
WulfgarZobacz profil
Poziom ostrzeżenia: 0%
Wulfgar2003.03.28, 14:21
eeee widze, że to nie jest ten standardowy system chłodzenia o Nvidy. a już miałem zaproponować test poziomu hałasu smilies/smile.gif)))
srekal34Zobacz profil
Poziom ostrzeżenia: 0%
srekal342003.03.28, 14:31
Przecież Gainward ma inny system chłodzenia niż pozostałe katry.Test poziomu hałasu dobra myśl:)
ITI2003.03.28, 14:31
Nie wazne jaki jest system chlodzenia, to i tak taki test poziomu halasu by sie przydal smilies/smile.gif
pilaZobacz profil
Poziom ostrzeżenia: 0%
Autor publikacjipila2003.03.28, 14:37
Co Wy z tym hałasem, a nie interesuje Was, co potrafi układ GeForce FX??? smilies/smile.gif))
WulfgarZobacz profil
Poziom ostrzeżenia: 0%
Wulfgar2003.03.28, 14:45
tak interesuje, ale jestem tez ciekawy czy sasiedzi beda wiedziec ze wlaczam kompa smilies/smile.gif))
PiraniaZobacz profil
Poziom ostrzeżenia: 0%
Pirania2003.03.28, 14:46
Czkałem na tę recke i fajnie że jestescie pierwsi !
SherifZobacz profil
Poziom ostrzeżenia: 0%
Sherif2003.03.28, 15:04
Interesuje, ale najwięcej nomen omen "hałasu" było związanego z systemem chłodzenia tej karty a nie z możliwościami jakie oferuje smilies/smile.gif
Funkcja komentowania została wyłączona. Do dyskusji zapraszamy na forum.
1