artykuły

Wielki test 125 kart graficznych PCI Express

324
9 października 2007, 09:54 S. Stolarczyk, P. Pilarczyk

Skok w trzeci wymiar

Jedną z pierwszych kart graficznych z funkcjami wspomagającymi, prócz grafiki płaskiej, także grafikę trójwymiarową (3D - three-dimensional), była Matrox Millennium. Zdolna była tworzyć w obrębie własnej pamięci dodatkowy bufor trzeciej współrzędnej Z ("w głąb" ekranu). Dodatkowo Millennium potrafiła cieniować obiekty trójwymiarowe metodą Gourauda.

W 1993 roku na rynku pojawiła się firma NVIDIA. W 1995 roku zaprezentowała swój pierwszy procesor, NV1, który do palety funkcji 3D dołączył także możliwość sprzętowego nakładania tekstur. Pierwsza karta oparta o NV1, Diamond Edge 3D, była naprawdę ciekawym produktem. Znacząco przyspieszała tworzenie grafiki 3D, jednak ze względu na wysoką cenę, dziesięciokrotnie wyższą od ceny "zwykłej" karty graficznej PCI oraz niestandardowy sposób nakładania tekstur, nie zyskała dużej popularności.

W wakacje 1995 roku Microsoft zaprezentował system Windows 95. To pierwsze "okienka", które zachęciły producentów gier do porzucenia systemu DOS jako platformy rozrywkowej, w czym zresztą pomogło wprowadzenie interfejsu DirectX w 1996.

Pierwszy tani układ graficzny 2D/3D, ViRGE (Video and Rendering Graphics Engine), wprowadziła pod koniec 1995 roku firma S3. Oferował on możliwości akceleracji grafiki 2D (dwuwymiarowej) na poziomie Matroksa Millennium, a dodatkowo do funkcji 3D dodał niezwykle istotną: filtrowanie dwuliniowe (bilinear filtering). Prócz tego ViRGE tworzył grafikę trójwymiarową z 16-bitową paletą kolorów (65.536 barw) i potrafił dodawać efekty atmosferyczne (mgła, dym). Niestety zamiast przyspieszać grafiki 3D potrafił ją nawet spowalniać, więc szybko przylgnęło do niego miano "deceleratora". Niemniej to właśnie ViRGE znalazł swoje zaszczytne miejsce w historii kart graficznych, gdyż jako pierwszy wprowadził trzeci wymiar pod strzechy.

Rok 1996 fani komputerów zapamiętali jako pojedynek układów PowerVR korporacji NEC/VideoLogic oraz Voodoo Graphics mało wówczas znanej firmy 3Dfx.

Chociaż początkowo wróżono 3Dfx porażkę (układ PowerVR był bardziej zaawansowany technologicznie), to jednak ostatecznie pojedynek wygrał właśnie 3Dfx Voodoo Graphics. Miał postać karty rozszerzeń PCI. Znajdowały się na niej dwa układy graficzne: 3Dfx TexelFX i 3Dfx PixelFX, a także 4 MB pamięci EDO DRAM. Voodoo wspomagał jedynie grafikę trójwymiarową, zatem do pracy wymagał obecności w komputerze także "zwykłej" karty graficznej zgodnej z VGA.

Voodoo Graphics robił porażające wrażenie na każdym entuzjaście komputerów. Nie dość, że kilkukrotnie przyspieszał szybkość generowania grafiki, to jeszcze oferował rewelacyjną jak na ówczesne czasy jakość obrazu i podniósł rozdzielczość w grach z 320x200 do 640x480.

AGP - następca PCI, ale wyłącznie dla kart graficznych

Magistrala PCI szybko przestała być wystarczająca dla kart graficznych. Rozwiązaniem problemu okazało się nowe złacze, AGP (Accelerated Graphics Port), którego specyfikację ogłosił Intel pod koniec 1996 roku. AGP to magistrala wyłącznie dla kart graficznych (w przeciwieństwie do PCI - szynie ogólnego zastosowania), o przepustowości dochodzącej nawet do 0,5 GB/s.

Na początku 1997 firma NVIDIA, o której wówczas nadal było cicho, zaprezentowała układ RIVA 128 (Realtime Interactive Video and Animation), który zatrząsł rynkiem kart graficznych. Stanowił zintegrowany akcelerator grafiki 2D (zgodny z VGA) oraz trójwymiarowej. W testach Direct3D był nawet szybszy od Voodoo, jednak nie oferował aż tak dobrej jakości obrazu.

RIVA 128 była układem, który rozpoczął trwającą przez kilka lat wojnę między NVIDIĄ a 3Dfx. Wojnę, która miała tragiczny finał dla 3Dfx. Ale o tym za chwilę.

W 1998 roku na półki sklepowe trafiły akceleratory 3Dfx Voodoo2, dostępne w dwóch wersjach, z 8 i 12 MB pamięci. Pojedyncza karta Voodoo2 była dwukrotnie szybsza od RIVY 128 w grach 3D. Dodatkowo wydajność Voodoo2 można było podwoić poprzez instalację dwóch kart tego typu w komputerze i połączenie ich w tzw. tryb SLI (Scan Line Interleave). Akronimu "SLI" używa obecnie NVIDIA na określenie pracy kilku akceleratorów z układami GeForce.

Odpowiedzią na Voodoo2 była NVIDIA RIVA TNT (TwiN Texel), zaprezentowana też w 1998. Zanim karta pojawiła się na rynku, NVIDIA sugerowała, że TNT jest trzykrotnie szybsza od Voodoo2 SLI. W ostateczności okazało się, że RIVA TNT dorównuje wydajnością pojedynczej karcie Voodoo2, co i tak było bardzo dobrym wynikiem.

Także w 1998 roku firma S3, wówczas jeszcze czołowy (i bardzo znany) producent układów graficznych, wprowadziła układ Savage3D, którego charakterystyczną funkcją była technika kompresji tekstur S3TC (S3 Texture Compression). Problemy produkcyjne sprawiły, że Savage3D nie zyskał nigdy większej popularności, tak samo jak jego następca, zaprezentowany rok później Savage4.

W roku następnym, obaj liderzy na rynku kart graficznych starli się ponownie. Orężem NVIDII był układ RIVA TNT2, który musiał się przeciwstawić 3dfx Voodoo3 (w międzyczasie 3dfx przeszła rebranding i zmieniła w nazwie literkę "d" z dużej na małą).

Późnym latem 1999 NVIDIA wprowadziła układ graficzny GeForce 256. "Ge" to skrót od "Geometry", "Force" oznacza siłę, a "256" podkreśla, iż architektura GF256 jest 256-bitowa. Nazwa GeForce przetrwała zresztą do dziś.

GeForce 256 był pierwszym konsumenckim układem graficznym, który został wzbogacony o procesor zajmujący się oświetleniem i transformacjami geometrycznymi (T&L Engine - od "Transform & Lighting Engine). Wraz z GeForce 256 zadebiutował termin GPU (Graphics Processing Unit), czyli Jednostka Przetwarzania Grafiki, analogicznie do CPU (Central Processing Unit), którym to mianem określa się procesor komputera.

Niedługo po premierze GeForce, firma 3dfx wprowadziła karty Voodoo4 i Voodoo5, zbudowane z wykorzystaniem nowego układu graficznego VSA-100 (Voodoo Scalable Architecture). To pierwszy układ 3dfx, który potrafi tworzyć grafikę trójwymiarową z 32-bitową paletą barw. Nie został on jednak wyposażony w jednostkę T&L. W VSA-100 skupiono się za to na pełnoekranowym wygładzaniu krawędzi (Full-Screen Anti-Aliasing - FSAA).

Także pod koniec 1999 roku S3 wprowadziła do sprzedaży swój pierwszy układ wyposażony (teoretycznie) w sprzętową jednostkę T&L - Savage 2000. Procesor zbudowany był z dwukrotnie mniejszej liczby tranzystorów niż GeForce 256, a teoretycznie oferował podobne możliwości. Wszystkich analityków i recenzentów dziwiło więc, jak inżynierom S3 udało się upchnąć w układzie kompletny zestaw funkcji dostępnych w konkurencyjnym układzie NVIDII. Niestety Savage 2000 obarczony był poważnym problemem: wadliwymi sterownikami. Pierwsza wersja w ogóle nie udostępniała możliwości włączenia jednostki T&L. Gdy już stosowne drivery się ukazały, aktywacja T&L powodowała pojawienie się szeregu błędów w generowanej grafice, przy praktycznie zerowym przyroście wydajności. Firmie S3 nie udało się nigdy wprowadzić działających sterowników dla Savage 2000, więc do dziś nie wiadomo, czy jednostka T&L była w ogóle sprawna.

Na początku 2000 roku ATI zaprezentowała układ o kodowej nazwie R100 (znany też jako Rage 6), następcę popularnego chipu Rage 128. Układ otrzymał nazwę Radeon 256 (później przyrostek "256" porzucono, by nie mylić układu z GeForce 256) i był pierwszym chipem ATI oferującym sprzętową jednostkę T&L. Dział marketingu ATI starał się unikać użytego przez NVIDIĘ określenia GPU i próbował wprowadzić własny akronim dla nowego układu - VPU (Visual Processing Unit). Skrót ten jest jednak dziś praktycznie niespotykany, w przeciwieństwie do GPU, który zyskał bardzo dużą popularność.

Radeon 256 był pierwszym układem noszącym nazwę Radeon. Przetrwała ona do dziś.

Nowy chip ATI trafił początkowo na karty z najwyższej półki, dostępne w dwóch wariantach - z 32 MB pamięci DDR i 64 MB pamięci DDR. Ta druga wersja była trochę wyżej taktowana. Układ stosowany na tych kartach, po wspomnianym usunięciu przyrostka "256", zaczęto określać mianem Radeon DDR. W lecie 2000 ATI wprowadziła także karty Radeon SDR, z tańszymi pamięciami SDR.

NVIDIA nie dała sobie jednak ani chwili wytchnienia i mniej-więcej w tym czasie, gdy ATI wprowadzała swojego Radeona, zaprezentowała kości GeForce2 GTS oraz GeForce2 MX. GeForce2 GTS (Giga Texel Shader) to nowy, flagowy produkt NVIDII. Karty z tym układem dostępne są wyłącznie z pamiecią DDR, której mają albo 32, albo 64 MB. We wrześniu zostały uzupełnione przez odmianę GeForce2 Ultra, o 25% szybszą od modelu GTS. GeForce2 MX to z kolei wolniejszy brat GTS, oferujący te same, nowe funkcje.

Upadek 3dfx

Rok 2000 był niestety tragicznym dla 3dfx. Firma miała problemy z wprowadzeniem na rynku układu Rampage (nad którym pracowała od 1998 roku) i na jesieni jasne już było, że producent Voodoo upada. Wreszcie wierzyciele 3dfx wnieśli o upadłość firmy. W grudniu własności intelektualne oraz część pracowników 3dfx (w tym grupa pracująca nad Rampage) zostały przejęte przez firmę NVIDIA.

W roku kolejnym (2001) pojawił się GeForce3. Istotną nowością było zintegrowanie w układzie programowalnych jednostek cieniowania pikseli (Pixel Shader) oraz programowalnych jednostek przetwarzających geometrię i oświetlenie (Vertex Shader). Te ostatnie to następca T&L.

Na układ GeForce3 firma ATI odpowiedziała procesorem Radeon 8500, który pojawił się pół roku później. Wraz z nim zadebiutował jego młodszy brat, Radeon 7500, czyli odświeżona wersja Radeona 256.

Także w 2001 roku na rynku pojawiły się układy PowerVR KYRO i KYRO II, produkowane przez STMicroelectronics (pod nazwami kodowymi - odpowiednio - STG4000 i STG4500). Wykorzystywały trzecią generację architektury PowerVR i miały konkurować z kartami GeForce2 GTS i Radeon DDR, jednak ze względu na problemy ze sterownikami, w wyniku których w wielu grach pojawiały się błędy w renderingu, nie zyskały większej popularności na rynku. Nawet wprowadzony pod koniec roku 2001 KYRO II SE (STG4800) nie zmienił niestety złej sytuacji PowerVR. Był to zresztą ostatni układ PowerVR dla pecetowych kart graficznych - chip czwartej generacji (STG5000), wyposażony w sprzętową jednostkę T&L, nigdy nie trafił do sprzedaży.

Na początku 2002 roku NVIDIA wprowadziła czwartą generację GeForce, obejmującą układy GeForce4 Ti 4600, Ti 4400 i Ti 4200 (ten ostatni pojawił się jednak z paromiesięcznym opóźnieniem). Potężny Ti 4600 bez problemu poradził sobie z Radeonem 8500, który mógł jedynie toczyć walkę z najtańszym Ti 4200.

Wraz z Geforce4 Ti NVIDIA zaprezentowała także tanią rodzinę układów GeForce4 MX, obejmującą układy MX 420, MX 440 oraz MX 460. Mimo cyfry „4" w nazwie, układy te swoimi możliwościami były bardzo zbliżone do GeForce2 (nie miały np. jednostek Pixel i Vertex Shader!).

W połowie 2002 roku na rynku pojawiły się karty Matrox Parhelia 512. Wykorzystywały 512-bitowy układ graficzny, który miał zapewnić firmie Matrox powrót na rynek kart graficznych dla graczy. Parametry karty robiły naprawdę wrażenie: była pierwszą o 256-bitowej szynie danych do pamięci, udostępniała szereg nowych funkcji 3D (m.in. mapowanie przemieszczeń, zaawansowany system wygładzania krawędzi) i umożliwiła jednoczesne podłączenie aż trzech monitorów. Gdy jednak pierwsze karty trafiły w ręce recenzentów, okazało się, że jej wydajność jest - delikatnie mówiąc - rozczarowująca. Niska wydajność i bardzo wysoka cena (ponad 2000 zł) spowodowały, że Parhelia nigdy nie zainteresowała graczy.

W wakacje 2002 roku, tuż przed startem naszego portalu, ATI przeprowadziła kontratak. Wprowadziła do sprzedaży układy graficzne Radeon 9700 Pro, wyposażone w jednostki Pixel Shader 2.0 oraz Vertex Shader 2.0. Jednostki te czyniły Radeona 9700 Pro pierwszym procesorem graficznym na rynku zgodnym z DirectX 9.0.

NVIDIA miała duże problemy z odpowiedzią. Jej zgodny z DirectX 9.0 układ GeForce FX 5800 Ultra, rywal Radeona 9700 Pro, spóźnił się pół roku i na rynek trafił dopiero na początku roku 2003. Na dokładkę nie szokował wydajnością, a w wyniku głośnych afer z optymalizacjami sterowników dla 3DMark05 do dziś cieszy się złą sławą (jak cała seria GeForce FX).

Tuż po premierze GeForce FX 5800 Ultra ATI wprowadziła układy Radeon 9800 Pro oraz Radeon 9600 Pro. Oba zyskały dużą popularność, zwłaszcza ten drugi, który w wielu sklepach bez problemu można kupić do dziś.

Także NVIDIA zaprezentowała tańsze odmiany GeForce FX 5800 Ultra, GeForce FX 5600 i "słynny" GeForce FX 5200, bohater wielu żartów i docinek. Jego wydajność w trybach 3D była porażająco niska, chociaż parametry techniczne robiły wrażenie, w dodatku producenci kart z FX 5200 chwalili się "pełną sprzętową zgodnością z DirectX 9.0".

Kilka miesięcy później NVIDIA wprowadziła chip GeForce FX 5900, który zastąpił nieudanego GeForce FX 5800. ATI z kolej zaprezentowała przyspieszonego Radeona 9800 Pro, oznaczonego symbolem Radeon 9800 XT. NVIDIA podkręciła swojego FX 5900 i wprowadziła na rynek jego przyspieszoną odmianę, GeForce FX 5950. Układ był ostatnim członkiem rodziny GeForce FX dla portu AGP.

Rok 2004 przyniósł duże zmiany. O ile dotychczas kolejne modele kart graficznych były o kilkanaście do kilkudziesięciu procent wydajniejsze od swoich poprzedników, o tyle w 2004 zaznaliśmy aż dwukrotnego skoku wydajności, za sprawą kart Radeon X800 XT Platinum Editon oraz GeForce 6800 Ultra. GeForce w dodatku był pierwszym układem o jednostkach Pixel Shader 3.0 i Vertex Shader 3.0, co czyniło go zgodnym z najnowszą specyfikacją Shader Model 3.0, będącą składnikiem DirectX 9.0c.

4