Karty graficzne
Artykuł
Pawel Pilarczyk, Niedziela, 23 czerwca 2002, 21:24
W lutym NVIDIA zaprezentowała nową rodzinę układów graficznych - GeForce4. Dzieli się ona na dwie linie: MX i Ti. Przepaść technologiczna między obiema jest naprawdę duża. Niestety, wielu nabywców nieświadomie kupuje karty GF4 MX z nadzieją otrzymania "prostszej wersji GF4 Ti". Późno, bo późno, ale prezentujemy Wam test karty ProLink PixelView GeForce4 MX 440, by Ci, którzy wciąż jeszcze nie wiedzą, czym jest GF4 MX, przekonali się o realnych możliwościach układu. Zapraszamy.


GeForce4 MX i Ti - podobieństwa i różnice

23.06 g. 21:26 Zanim zajmiemy się GeForce4 MX, prosimy o zapoznanie się z naszym opisem architektury GeForce4 Ti, który zamieściliśmy tutaj (artykuł o GeForce4 Ti jeszcze nie został przeniesiony na PCLab.pl - przepraszamy! - redakcja). To, co za chwilę napiszemy o nowym MX-ie, będzie bowiem bezpośrednio powiązane z naszym opisem GF4 Ti.

Już po lekturze? Ok. To jedziemy dalej. Jak zatem wiecie, GeForce4 Ti doczekał się nowej jednostki nFinite FX II, składającej się z dwóch jednostek cieniowania wierzchołków (Vertex Shader) i jednej jednostki cieniowania pikseli (Pixel Shader). Są to niezwykle istotne elementy, zapewniające układowi zgodność z DirectX 8.0 i pozwalające na nim uzyskać szereg nowych, niezwykle ciekawie się prezentujących efektów specjalnych.

GF4 Ti ma ponadto poprawioną architekturę pamięci, nazwaną LMA II (Lightspeed Memory Architecture II), a także oferuje nową metodę Anty-aliasingu, zwaną Accuview Antialiasing. Udostępnia również wsparcie dla dwóch monitorów (nView).

Czym jest zatem GeForce4 MX? Nazwa sugeruje, iż jest to okrojony GeForce4 Ti. Pamiętacie, na czym polegało okrojenie GeForce2 MX w stosunku do "pełnego" GeForce2 GTS? Przypomnijmy: MX miał tylko dwa potoki renderujące (GTS miał ich cztery), a w każdym siedziały po dwie jednostki mapujące tekstury (tak samo, jak w GTS-ie). W efekcie GTS mógł mapować tekstury na cztery piksele w jednym cyklu zegara, podczas gdy MX - tylko na dwa piksele. Jak nietrudno się domyśleć, obcięcie MX-owi dwóch z czterech potoków renderujących bardzo negatywnie wpłynęło na jego wydajność. Drugą zmianą jest montowanie na kartach GeForce2 MX pamięci SDR SDRAM o taktowaniu 166 MHz (w przypadku niektórych modeli kart wartość ta schodzi nawet do 143 MHz lub w innych wypadkach osiąga 200 MHz). Pamięć SDR umożliwia przesłanie jednej paczki danych na cykl zegara, a więc na każdy cykl mamy jedną 128-bitową paczkę (16 bajtów). Tymczasem na kartach GeForce2 GTS montuje się pamięć DDR SDRAM, również o rzeczywistym taktowaniu 166 MHz. Pamięć DDR pozwala jednak na przesłanie nie jednej, a dwóch paczek danych na cykl zegara. Jeden cykl i mamy dwie paczki po 128 bitów, czyli w sumie 32 bajty. Prosty rachunek wyjawia teoretyczną przepustowość pamięci: w przypadku pamięci SDR na GF2 MX jest to 166 MHz x 16 bajtów = 2,65 GB/s, podczas gdy w GTS-ie jest to 166 MHz x 32 bajty = 5,3 GB/s.

Brak dwóch z czterech potoków renderujących (rendering pipeline) oraz współpraca z wolniejszymi pamięciami, to jedyne istotne różnice między GeForce2 MX a GeForce2 GTS (MX potrafi także współpracować z dwoma monitorami na raz: TwinView). Pomijając zatem fakt, iż MX jest przeciętnie około dwukrotnie wolniejszy od GTS-a, to oba układy oferują tę samą funkcjonalność, przykładowo oba mają - między innymi - jednostkę NSR (NVIDIA Shading Rasterizer).

W przypadku GeForce4 MX sytuacja jest jednak o wiele bardziej skomplikowana. Układowi nie dość, że obcięto dwa z czterech poków renderujących (w efekcie ma ich tylko dwa, w każdym po dwie jednostki mapujące tekstury), to jeszcze pozbawiono go podstawowych jednostek czyniących z GF3 i GF4 Ti układy nowej generacji: cieniowania pikseli (Pixel Shader) i cieniowania wierzchołków (Vertex Shader). Układ GF4 MX, pozbawiony tychże jednostek, nie jest więc kompatybilny z DirectX 8.0, a jedynie DirectX 7.0 i w rzeczywistości jego możliwości i ilość dostępnych funkcji 3D są uboższe, niż w przypadku GeForce3 (mimo że ten ostatnio ma niższy numerek w nazwie!!!).



Skoro GeForce4 MX nie ma podsystemu nFinite FX II, to zasadniczo powinien się nazywać "GeForce2 Plus" albo jakoś podobnie. Układ ma jednak pewne cechy wspólne z GeForce4 Ti, dzięki czemu może powalczyć na polu wydajnościowym nie tylko z GeForce2 MX, ale także z GeForce2 Ti, a teoretycznie także z GeForce3 Ti 200. GeForce4 MX współpracuje bowiem już z pamięciami DDR o 128-bitowej magistrali, co gwarantuje mu wysoką przepustowość pamięci. Tę wspomaga ponadto system LMA II znany z GeForce4 Ti, jednak zamiast czterech 32-bitowych kontrolerów krzyżowych, w MX-ie mamy dwa kontrolery 64-bitowe. GeForce4 MX został ponadto wyposażony w możliwość wygładzania krawędzi metodą Accuview, a także obsługę dwóch monitorów (nView - GF4 MX ma dwa kontrolery RAMDAC). To jeszcze nie wszystko: układ ma zintegrowany enkoder wideo, więc na kartach z układem GF4 MX nie będzie konieczna instalacja zewnętrznego dekodera. Oznacza to, że dla producentów kart graficznych wyposażenie ich w wyjście TV będzie praktycznie darmowe, więc wszystkie karty GeForce4 MX mają "TV out" w standardzie. Ostatnią cechą GF4 MX jest wbudowany, w pełni sprzętowy dekoder MPEG-2, składający się na funkcje iDCT i MC.



Porównajmy sobie w tabelce kilka wybranych układów graficznych, a więc rodziny GeForce2, GeForce3 i GeForce4, a także - dla porównania - Radeon 7500 i Radeon 8500:

Kliknij, aby powiększyć
Tabelka porównawcza wybranych układów graficznych - kliknij, aby powiększyć


Jak widać z powyższego porównania, GeForce4 MX swoimi możliwościami bardziej przypomina GeForce2 czy Radeona 7500, niż GeForce4 Ti.

GeForce4 MX dostępny jest na rynku w trzech wersjach: najszybsza, GeForce4 MX 460, to układ taktowany zegarem 300 MHz i współpracujący z pamięciami DDR o efektywnym taktowaniu 550 MHz (275 MHz taktowania rzeczywistego). Najpopularniejsza odmiana, GeForce4 MX 440, to układ o taktowaniu 270 MHz i pamięci DDR 400 MHz. Istnieje także wersja niszowa, GeForce4 MX 420, o taktowaniu 250 MHz, współpracująca z pamięciami SDR (!) 166 MHz. Niskie taktowanie pamięci stanowi bardzo wąskie gardło w przypadku tego ostatniego, co negatywnie wpływa na jego wyniki, zwłaszcza w wysokich rozdzielczościach.



GeForce4 MX 440, z racji swej ceny, jest bezpośrednim konkurentem GeForce2 Ti oraz Radeona 7500, a także - od niedawna - GeForce3 Ti 200, jako że te zeszły już do pułapu cenowego, w którym jeszcze kilka miesięcy temu znajdował się GF2 Ti. W naszym teście porównamy ze sobą karty oparte na wymienionych układach.

ProLink PixelView GeForce4 MX 440

23.06 g. 22:16 Chociaż w chwili obecnej w naszym laboratorium leży już kilka kart z układami GeForce4 MX i GeForce4 Ti, to pierwszą GF4, jaka do nas dotarła, była nadesłana przez firmę Action 2 ProLink PixelView GeForce4 MX 440.



W niewielkim pudełku kryje się dość typowa zawartość: karta graficzna, trzy krążki CD (jeden zawiera sterowniki, drugi pełną wersję gry Serious Sam, trzeci programowy odtwarzacz WinDVD), kabelek zakończony z dwóch stron wtyczkami cinch (RCA) do podłączenia telewizora, przejściówka z S-Video na Cinch oraz instrukcja w języku polskim (kilkustronicowa książeczka).

Sama karta nie robi wrażenia wyglądem:



Płytka ma lamiat koloru żółto-brązowego, na układzie graficznym umieszczony jest ciemnozłoty radiator z niewielkim wentylatorkiem. Prócz wyjścia monitorowego D-Sub, na śledziu znajduje się także wyjście TV Out w standardzie S-Video (gniazdko typu mini DIN). Zwraca uwagę brak na karcie enkodera wideo - wszak ten wbudowany jest w układ NV17 (GeForce4 MX).



Na karcie obsadzono 64 MB pamięci DDR SGRAM produkcji Samsunga o czasie dostępu 5 ns:



Nie ma innych dodatków, jak wyjście DVI dla monitorów ciekłokrystalicznych czy wejście wideo. W sumie jednak karta przeznaczona jest dla graczy, a ci rzadko bawią się w edycję wideo.

Ocena artykułu:
Ocen: 1
Zaloguj się, by móc oceniać
jot (2002.10.10, 23:43)
Ocena: 0

0%
i znow komputer to konkurent plejstacji... moze sa jakies inne programy (poza gierami) w ktorych wazna jest karta graficzna.

ps

pierwszy
pila (2002.10.11, 08:21)
Programy 2D praktycznie są już niezależne od kart graficznych, bowiem te są niemal jednakowo szybkie 2D. Różnice występują jeszcze np. przy renderingu w viewportach w 3ds max 4, ale nikt nie prosił o taki test, więc go nie przeprowadziłem smilies/smile.gif Puszczałem go za to na RADEONie 8500 przy okazji naszej recenzji (jeszcze jej nie przeniosłem na PCLabika), właśnie na prośbę Czytelników.
jot (2002.10.11, 21:05)
Ocena: 0

0%
to ja prosze o testy w programach 3D innych niz gry smilies/smile.gif czy mam zmienic pseudo na jot maruda?
pila (2002.10.12, 22:52)
Ok, ok, jakich? Bo "programów 3D innych niż gry" są tysiące, może masz jakieś konkretne propozycje?... smilies/smile.gif
*Konto usunięte* (2006.02.07, 02:00)
Ocena: 0
Tak się stało iż stałem się posiadaczem NVIDIA GeForce4 MX 440 AGP8X na procesorze NV18 z 128 MBDDR. Chcialbym podziekować autorowi tej recenzji za "uświadomienie" mi wielu rzeczy, które dotyczą powyższej karty.
Popełniłem spory bład instalujać najnowsze oprogramowanie (najnowszy forceware oraz directX), karta poprostu nie działą prawidłowo w niektórych aplkikacjach wymagających grafiki 3D. Dlatego chciałbym zapytać o optymalna wersje detonatora oraz directX, która zapewniła by mi najlepsza wydajność.

Z góre dziekuje za reakcje... Pozdrawiam
Zaloguj się, by móc komentować
Artykuły spokrewnione
Facebook
Ostatnio komentowane