Sparkle GeForce GT 220 na zewnątrz i od środka
Karta dotarła do nas w gustownym, choć bardzo skromnym pudełku – zarówno pod względem rozmiarów, jak i zdobień. W końcu mamy do czynienia z produktem z niskiej półki, więc wielkie i krzykliwe niezbyt by tu pasowało. Cieszy także to, że coraz więcej producentów rezygnuje z umieszczania swoich „maskotek” na opakowaniach kart graficznych.
Karta również wygląda skromnie: niebieska PCB, brak złącza dodatkowego zasilania, malutki radiator i wentylator. Trochę zaskakuje obecność wyłącznie polimerowych kondensatorów i ekranowanych cewek – czegoś, co nie zawsze jest oczywiste nawet w droższych kartach.
Złącze HDMI na śledziu wskazuje na główne zastosowanie tej karty. Oprócz tego znalazło się tam wyjście DVI oraz D-sub.
Zestaw dodatków jest dość ciekawy. Co prawda instrukcja i płyta ze sterownikami nikogo nie zaskoczą, ale kartonowe okulary z niebieską i czerwoną folią są dość nietypowe – ale o nich powiemy więcej trochę później. I w końcu zniknął kabelek S/PDIF.
Karta ma standardowe dla GeForce'a GT 220 zegary: rdzeń – 625 MHz, jednostki cieniowania – 1360 MHz, pamięć – 405 MHz. Warto zwrócić uwagę na rodzaj zastosowanej pamięci: 1 GB DDR2. Konfiguracja trochę dziwna i nie do końca zrozumiała. Pół gigabajta GDDR3 byłoby zapewne wydajniejsze i tańsze.
Wydajność
Testy wydajności przeprowadziliśmy na swoim standardowym zestawie testowym. Zmienił się system operacyjny: teraz wszystkie testy wykonujemy w Windows 7 w wersji 64-bitowej. Sterownik kart NVIDI-i to ForceWare w wersji 195.62, a kart AMD – Catalysty w wersji 9.12 hotfix.
Na pierwszy rzut oka wykresy wyglądają, jak gdyby testowany przez nas GeForce został zestawiony z nieodpowiednimi kartami graficznymi, należącymi do zupełnie innej półki cenowej. Ale Radeon HD 4670 kosztuje około 20 zł więcej niż testowana przez nas karta i uzyskane przez nas wyniki są w pełni prawidłowe. GeForce GT 220 naprawdę jest około dwa razy wolniejszy od porównywalnego cenowo Radeona HD 4670 lub GeForce'a 9600 GSO. Dalszy komentarz jest chyba zbędny.
Podkręcanie, pobór mocy, temperatury
Po niezbyt udanej sesji mierzenia wydajności karty dość sceptycznie przeszliśmy do podkręcania. Poszło jednak całkiem nieźle. Zegar GPU udało się przyspieszyć o 104 MHz, zegar jednostek cieniowania – o 129 MHz, a zegar pamięci – o 154 MHz. Ta ostatnia zmiana jest szczególnie znacząca. W dzisiejszych czasach podkręcenie pamięci o 100 MHz to nie jest wielki wyczyn, ale jeśli policzymy procentowy wzrost taktowania, to okazuje się, że po podkręceniu miała prawie o 40% wyższą częstotliwość taktowania. Spróbujcie to osiągnąć na swojej domowej karcie z pamięcią GDDR3 lub GDDR5 ;)
Efekt podkręcania bardzo ładnie przełożył się na wyniki. Wydajność karty wzrosła o ponad 30%, dzięki czemu udało nam się przekroczyć magiczną barierę 30 kl./s. Niestety, to nadal zbyt mało, aby karta mogła konkurować z podobnie wycenianym Radeonem.
Pobór mocy nie przyniósł niemiłych niespodzianek.
40-nanometrowe GPU jest bardzo energooszczędne. O ile w spoczynku rewelacji na tle konkurencji nie ma, to pod obciążeniem karta pobiera jedynie 45 W więcej.
Mniejszy wymiar tranzystora sprawia też, że układ graficzny działa w bardzo niskiej temperaturze.
Mimo małego wentylatora i radiatora karta jest bardzo chłodna, a przy tym dość cicha. Nie ma tu powodów do narzekania.
3D Vision Discover – 3D Vision dla mniej zamożnych
Przejdźmy do najciekawszego elementu testu, czyli dołączonych do karty kartonowych okularów.
Chyba każdy miał kiedyś styczność z podobną „konstrukcją” i wie, do czego służy. Oczywiście są to okulary mające zapewnić pewną trójwymiarowość oglądanych scen. Swego czasu można było natknąć się w telewizji na filmy, które wymagały podobnych okularów, aby dało się je oglądać. Przy pierwszym zetknięciu wywołają one u wielu uśmiech na twarzy, czy to ze względu na wspomnienia, czy na to, że taki dodatek może wydać się śmieszny. Ale okazało się, że to nawet działa.
Cały „ekosystem” nazywa się 3D Vision Discover i składa się z okularów, karty NVIDI-i oraz odpowiednich sterowników, które można pobrać ze strony producenta. Po zainstalowaniu sterownika następuje szybka i przyjemna konfiguracja. Po uruchomieniu dowolnej gry od razu widać efekt. I nie trzeba do tego żadnego wyjątkowego monitora.
Zdjęcie powyżej to wcale nie efekt przedłużającego się posylwestrowego kaca, a typowy efekt działania 3D Vision Discover. Dzięki takiemu sposobowi wyświetlania obrazu lewe i prawe oko widzą trochę inny obraz. Tworzy to charakterystyczną głębię i wrażenie, że obiekty wystają z monitora. Efekt stanowczo nie jest tak dobry jak pełne 3D Vision z okularami migawkowymi, ale nie znaczy to, że jest słaby. Jest wręcz przeciwnie – to może się wielu osobom spodobać, zwłaszcza że nic nie kosztuje. Trochę kuleje reprodukcja kolorów, efekt głębi nie jest szczególnie imponujący, a filtry lewy i prawy nie zawsze blokują wszystko, co powinny, co trochę psuje wrażenie. Dla niektórych problemem nie do przeskoczenia może być ból oczu towarzyszący patrzeniu przez okulary. Całość świetnie się sprawuje jako wersja demonstracyjna 3D Vision z prawdziwego zdarzenia. Spodobał się efekt? Oczy nie bolą? To znaczy, że 3D Vision jest dla ciebie.
Oczywiście sprawdziliśmy szybko, jak włączenie tej opcji wpływa na liczbę klatek na sekundę.
Na GeForsie GT 220 raczej sobie nie pogramy z włączoną funkcją 3D, chociaż niektóre gry w rozdzielczości 1280×800 i z wyłączonym wygładzaniem krawędzi są dość grywalne. Liczba klatek na sekundę spada o połowę, co dla tej karty jest zabójcze. Lista obsługiwanych gier jest taka sama jak w przypadku pełnego 3D Vision, czyli bardzo długa.
Oczywiście nie oznacza to, że dołączenie okularów do tej karty jest bezsensowne. Te okulary nie są przeznaczone tylko do gier. 3D Vision współpracuje również z odpowiednio przygotowanymi filmami oraz zdjęciami i w tym zastosowaniu okulary połączone z testowanym GeForce'em radzą sobie całkiem dobrze. Potrzebny jest do tego odpowiedni odtwarzacz, który można pobrać ze strony NVIDI-i. Znajdują się tam też próbki filmów i zdjęć przystosowanych do wyświetlania w trybie 3D. Każdy posiadacz nowszych kart NVIDI-i może spróbować to uruchomić i zobaczyć, jak wygląda ten rozdwojony obraz, a jeśli komuś uda się zdobyć takie okulary, to będzie mógł zobaczyć ten efekt w praktyce, na pewno znacznie niższym kosztem niż w przypadku zwykłego 3D Vision.
Podsumowanie
Wielokrotnie powtarzaliśmy, że nie ma złych kart – są tylko te, które kosztują więcej, niż powinny. Tak jest, niestety, w przypadku opisywanego modelu. Jest cichy, pobiera mało mocy, jeszcze trochę i zacząłby ochładzać wnętrze obudowy, zamiast je podgrzewać, no i ma w pudełku okulary, którymi można się „lansować” przed kolegami. Niestety, w tej cenie można znaleźć znacznie wydajniejsze karty graficzne, zarówno AMD, jak i samej NVIDI-i. I gdy mówimy: znacznie, to nie mamy na myśli różnic rzędu 20 czy 30% – raczej 100%. Sytuacji nie ratuje technika 3D Vision Discover, która choć jest bardzo fajnym rozwiązaniem, mogącym zapewnić sporo frajdy, to jednak działa również z innymi kartami NVIDI-i. Oczywiście, jeśli ktoś bardzo się uprze na chłodną i energooszczędną kartę z bogatym zestawem dodatkowych funkcji, która ma służyć jedynie jako przekaźnik obrazu i dźwięku z komputera, i przy tym nie będzie chciał wydać więcej niż 200 zł, to będzie zadowolony. Jednak każdy bardziej... rozsądny albo wybierze coś tańszego, co poradzi sobie równie dobrze, albo za te same pieniądze kupi Radeona HD 4670 lug GeForce'a 9600 GSO, które w grach wypadają znacznie lepiej.
A posiadacze GeForce'ów powinni poszukać gdzieś odpowiednich okularów i sami sprawdzić, jak działa 3D Vision Discover, bo to może się podobać.
Do testów dostarczył: Sparkle
Cena w dniu publikacji (z VAT): 220 zł