9800 GTX z plusem i bez
GeForce 9800 GTX nie był złym produktem, bo przecież wywodził się bezpośrednio od bardzo udanego poprzednika. Przyzwoita wydajność, przyzwoita cena – po prostu przyzwoity produkt. Wydawało się, że nic nie może zagrozić pozycji tej karty na rynku, do momentu pojawienia się nowych Radeonów. Gdy okazało się, że Radeon HD 4850 z powodzeniem konkuruje z GeForce'em 9800 GTX, NVIDIA była zmuszona obniżyć ceny. Chwilę później pojawiły się pierwsze informacje o wydaniu odświeżonej wersji GeForce'a 9800 GTX, o nazwie GeForce 9800 GTX+, który to miał pomóc NVIDI-i w odzyskaniu pozycji w tym segmencie rynku. W ten oto sposób otrzymujemy odświeżoną wersję odświeżonej wersji. Plus w nazwie oznacza szybsze zegary taktujące (układ graficzny – 748 MHz, jednostki cieniowania – 1836 MHz, pamięć – 1100 MHz; poprzedni 9800 GTX miał zegary, odpowiednio, 675, 1688 i 1100 MHz), mniejszy, 55-nanometrowy proces technologiczny oraz obsługę NVIDIA PhysX.
Gdy się patrzy na tę kartę, to ma się wrażenie dejà vu. Do tego stopnia, że mieliśmy wątpliwości, czy układ naprawdę został wykonany w nowym procesie czy po prostu jest to podkręcony 9800 GTX. Po wyjęciu karty z pudełka wita nas dokładnie ten sam schładzacz. Po włączeniu komputera i uruchomieniu GPU-Z wrażenie dejà vu pogłębia się.
W polu Technology widnieje 65 nm. Usunięcie schładzacza upewniło nas jednak, że mamy do czynienia z układem wykonanym w 55-nanometrowym procesie i że to GPU-Z się myli.
Na zdjęciach widać, że układ jest mniejszy. Widoczne jest też, że użyto dokładnie tej samej PCB. Na płytce drukowanej znajdujemy także identyczne kości pamięci. Karta została przygotowana minimalnym nakładem pracy. Wzięto wszystko, co się dało, ze starszej karty i zmieniono jedynie układ graficzny na mniejszy. Oczywiście nie ma w tym nic złego, szczególnie że tym razem NVIDIA nie zdecydowała się na całkowicie nowy numerek (9900 GTX?) i ograniczyła się do dodania plusika do już istniejącej nazwy.
Czas sprawdzić, czy wprowadzone zmiany wyszły karcie na dobre.
MSI N9800GTX PLUS-T2D512-OC
Karta MSI jest konstrukcją referencyjną. Jedyne, co ją odróżnia, to naklejka ze znanym nam już orkiem oraz trochę szybsze zegary taktujące układ i pamięci.
Taktowanie karty to 760, 1880 i 1150 MHz (układ graficzny, jednostki cieniowania, pamięć), czyli odpowiednio o 12, 44 i 50 MHz więcej. Dostępna jest też wersja karty bez przyrostka OC, której GPU taktowany jest zegarem 738 MHz, a pamięci 1100 MHz.
Zawartość pudełka to standardowy zestaw kabelków i przejściówek wideo: przejściówka z DVI na HDMI, z DVI na D-sub, z gniazda mini-DIN na trzy wtyczki cinch oraz S-Video. Na koniec dostajemy kabelek audio i płytę zawierającą sterowniki oraz oprogramowanie MSI Live Update. Nie dołączono żadnej gry.
Zotac GeForce 9800 GTX+ AMP! Edition
Karta Zotac to też konstrukcja referencyjna i tak samo jak w przypadku karty MSI mamy do czynienia z odpowiednią naklejką oraz szybszymi zegarami. Naklejka oraz pudełko są przyozdobione szeroko uśmiechniętym smokiem. Nie pytaliśmy się producentów, co spowodowało tak wielkie jego zadowolenie. Na pudełku widnieje też napis PhysX Ready. O tym, ile prawdy jest w tym stwierdzeniu, napiszemy trochę później.
Taktowanie tej karty różni się trochę od parametrów karty MSI. Mamy tutaj 4 MHz mniej w przypadku rdzenia i 10 MHz więcej w przypadku jednostek cieniowania. Końcowa wydajność tych kart jest bardzo zbliżona i jest o kilka procent większa niż wydajność karty o standardowych zegarach.
Zawartość pudełka niewiele różni się od tego, co znaleźliśmy w pudełku od karty MSI. Dodatkowo otrzymujemy dwie przejściówki z wtyczek typu molex na 6-pinowe PCI Express. Dostajemy także pełną wersję gry XIII Century: Death or Glory.
Platforma testowa
Wszystkie testy wykonaliśmy na następującym zestawie:
Model | Dostarczył | |
---|---|---|
Procesor: | Intel Core 2 Extreme QX9770 @ 4 GHz | www.intel.pl |
Płyta główna: | ASUS P5E3 Premium WiFi-AP | pl.asus.com |
RAM: | OCZ DDR3 1800 (PC3-14400) Platinum Edition (2x 1 GB) | www.extrememem.pl |
Dysk twardy: | Seagate Barracuda 7200.8 400 GB | www.seagate.com |
Zasilacz: | Cooler Master RS 850 EMBA | www.coolermaster.com |
Monitor: | Samsung SyncMaster 305T (30 cali, 2560x1600) | www.samsung.com |
Nasz komputer był kontrolowany przez 32-bitowy system Windows Vista. Karty NVIDIA były obsługiwane przez sterowniki w wersji 177.79.
Wydajność – testy syntetyczne
Na początek seria testów syntetycznych.
Benchmarki wydane przez Futuremark pokazują pierwszy plus nowego GTX-a – wydajność o 4% wyższą względem poprzedniej konstrukcji.
Wydajność – gry
Czas sprawdzić, czy to, co pokazały 3DMarki, pokrywa się z tym, co karty prezentują w grach. Ponieważ wydajność 65-nanometrowego GTX-a oraz Radeona 4850 jest od dawna dobrze znana, nie będziemy się rozwodzić na temat uzyskanych wyników.
Wyniki nie zaskakują, gdyż Plus, jeśli patrzeć pod kątem zegarów, jest podkręconym 9800 GTX bez plusa. Zapewnia to dodatkowe kilka procent wydajności, co nie wpływa zbytnio na końcowy układ sił między AMD a NVIDI-ą. W zależności od zestawu gier raz jedna karta jest wydajniejsza, a raz druga. Średnia wydajność produktów obu firm jest bardzo zbliżona. Teoretycznie w tym miejscu testy mogłyby się zakończyć i moglibyśmy powiedzieć, że to odgrzewany kotlet. Nie jest tak do końca, bo od pewnego czasu NVIDIA bardzo stara się udowodnić, że karta graficzna nie służy tylko do renderowania grafiki.
PhysX i CUDA – święty Graal NVIDI-i?
Dzisiejsze karty graficzne mają gigantyczną moc obliczeniową, którą ich twórcy starają się zaprzęgnąć do innych zadań niż generowanie kolejnych klatek animacji w grach. AMD wydało StreamSDK, w którego skład wchodzi kompilator Brook+ oraz biblioteki AMCL. Nie da się jednak zaprzeczyć, że NVIDIA kładzie o wiele większy nacisk na GPGPU i robi wokół tego o wiele więcej szumu. Nie wiadomo, ile kosztuje „zielonych” rozwój CUDA, jednak bardzo im zależy na udowodnieniu słynnej już tezy, że „CPU is dead”.
Pierwszym dużym krokiem wykonanym w tym kierunku przez NVIDI-ę było wykorzystanie karty graficznej do wykonywania obliczeń związanych z fizyką w grach. Dzięki przejęciu firmy AGEIA firma uzyskała dostęp do potrzebnych jej bibliotek. W końcu wraz z ukazaniem się sterowników w wersji 177.39 karty graficzne: GTX 260, GTX 280, 9800 GTX+, mogły zastąpić wyspecjalizowane karty AGEIA i okazało się, że są od nich lepsze. Sterowniki 177.79 umożliwiły to dodatkowo wszystkim kartom z serii 8 oraz 9. Jest możliwe użycie dwóch różnych kart NVIDI-i i wyznaczenie jednej do generowania obrazu, a drugiej wyłącznie do liczenia fizyki. Gdy w komputerze mamy tylko jedną kartę, też możemy korzystać z akceleracji fizyki. Są jednak pewne ograniczenia.
Do testów NVIDIA PhysX wykorzystaliśmy specjalną modyfikację do gry Unreal Tournament 3. Zawiera ona trzy mapy, czerpiące całymi garściami z możliwości PhysX, oraz zmienia niektóre aspekty gry, takie jak działanie broni.
Pomiary wykonaliśmy na dwóch z trzech map: Tornado_PhysX oraz Lighthouse_PhysX. Zrezygnowaliśmy z HeatRay_PhysX, bo na niej obliczeń związanych z fizyką jest najmniej. Sprawdziliśmy, na jakim poziomie jest wydajność, gdy cała fizyka liczona jest przez procesor, gdy zarówno obrazem, jak i fizyką zajmuje się ta sama karta oraz gdy do tego celu używana jest druga karta. Przy okazji zbadaliśmy, jaka różnica wydajności w obliczeniach związanych z fizyką jest między kartami GeForce 9800 GTX+ i GeForce 9600 GT.
Po tej mapie grasuje tornado i niszczy wszystko, co napotka na swojej drodze. Ponieważ porusza się ono w sposób losowy i liczba klatek na sekundę zależy w dużym stopniu od tego, co już zostało zniszczone, wykresy te mają bardziej charakter orientacyjny. Przed rozpoczęciem pomiaru czekaliśmy 10 minut, aż tornado trochę się „wyżyje”. Widać tutaj, że gdy całą fizyką zajmuje się procesor, niezależnie od rozdzielczości, uzyskujemy około 8 kl./s. Wykorzystanie akceleracji fizyki drastycznie zmienia sytuację. Wyraźnie widać ograniczenie konfiguracji, gdy jedna karta musi jednocześnie wykonywać obliczenia związane i z fizyką, i z grafiką. Gdy renderowana scena jest bardzo wymagająca graficznie, włączenie obsługi PhysX powoduje spadek wydajności. Tutaj był on na tyle znaczący, że nasz zestaw nie był w stanie wyświetlić jednej klatki na sekundę.
Na tej mapie byliśmy w stanie uzyskać bardziej powtarzalne wyniki. Większość jej elementów da się zniszczyć (szczególnie ściany). Nasz test polegał na przebywaniu tej samej drogi i niszczeniu beczek, co powodowało niszczenie ścian. Widać wyraźny wzrost wydajności przy włączonej obsłudze NVIDIA PhysX. Gdy do obliczeń fizycznych używamy 9800 GTX+ lub 9600 GT, wydajność w obu przypadkach utrzymuje się na podobnym poziomie, co świadczy o tym, jaki zapas mocy obliczeniowej mają te karty, gdy zajmują się tylko fizyką. Ciekawie też zmienia się wydajność systemu, w którym pojedyncza karta zajmuje się i fizyką, i obrazem. W rozdzielczości 2560×1600 da się oczywiście biegać, jest to jednak możliwe dopóty, dopóki nie próbujemy czegoś zniszczyć. Strzał w kierunku beczki w celu wywołania wybuchu przyniósł przerwę na herbatę. Po powrocie mur był już prawie zniszczony, jednak przerwaliśmy to wiekopomne dzieło przez zakończenie procesu.
Przy okazji testów PhysX z dodatkową kartą graficzną natknęliśmy się na pewien problem. Aby móc korzystać z zalet tej technologii, trzeba do drugiej karty graficznej podłączyć monitor. Czyli musimy mieć albo dwa monitory, albo jeden z dwoma wejściami. W przeciwnym razie po prostu druga karta nie pojawia się na liście wyboru w panelu sterowania PhysX. Mamy nadzieję, że zmieni się to w przyszłych wydaniach sterowników.
Folding@Home
Obliczenia rozproszone – dla jednych ciekawostka, a dla innych styl życia. Niektórzy wykorzystują wolne cykle zegara swojego procesora, a inni zakładają całe farmy obliczeniowe. Wykorzystanie kart graficznych w obliczeniach rozproszonych i związanych z nimi projektach typu Folding@Home wydaje się oczywiste. W końcu typowa karta graficzna kierowana na rynek mainstream ma teraz około teraflopa mocy obliczeniowej. Szkoda, aby taki potencjał marnował się przy ciągłym renderowaniu obrazu. Zamiast tego nasze karty graficzne mogą zrobić w końcu coś pożytecznego i na przykład przyczynić się do znalezienia lekarstwa na raka.
Od 1 sierpnia tego roku dostępna jest finalna wersja drugiego wydania klienta Folding@Home, który zwija białka przy użyciu kart graficznych NVIDIA i AMD. Przy tym warto zaznaczyć, że ATI „zwija” już od kilku lat. Pierwsza wersja klienta GPU mogła wykonywać obliczenia, korzystając z kart Radeon X1900. Karty NVIDI-i umieją coś takiego od niedawna, jednak już mocno namieszały w statystykach.
OS Type | Current TFLOPS* | Active CPUs | Total CPUs |
Windows | 207 | 217735 | 2166988 |
Mac OS X/PowerPC | 7 | 8519 | 119856 |
Mac OS X/Intel | 22 | 7028 | 62204 |
Linux | 59 | 34529 | 330032 |
ATI GPU | 444 | 4033 | 8923 |
NVIDIA GPU | 1459 | 13263 | 26157 |
PLAYSTATION®3 | 1054 | 37360 | 597357 |
Total | 3252 | 322467 | 3311517 |
Dane z 09.09.08
Karty NVIDI-i zapewniają obecnie 44,9% całkowitej mocy obliczeniowej wykorzystywanej w tym projekcie. Ze statystyk wynika, że średnio wychodzi 110 gigaflopów na kartę. Dla porównania: wszystkie obecnie używane procesory mają przeciętnie 1,1 gigaflopa mocy obliczeniowej.
Sprawdziliśmy liczbę punktów zdobywanych w ciągu dnia przez Radeona HD 4850, GeForce'a 9800 GTX+ oraz naszego QX 9770.
Przed omówieniem wyników należy wspomnieć, że karty AMD, karty NVIDI-i oraz procesory wykonują obliczenia dla odmiennych projektów, czyli nie da się ich w ten sposób porównać bezpośrednio. Przez pewien czas było możliwe wymuszenie wykonywania przez karty NVIDI-i obliczeń w projektach przeznaczonych dla kart AMD. Różnica w liczbie uzyskiwanych punktów była bardzo podobna do tej, którą widzimy na powyższym diagramie.
Druga sprawa to sposób, w jaki są liczone punkty za daną WU (ang. work unit). Zanim nowy projekt przeznaczony dla GPU trafia do fanów obliczeń rozproszonych, sprawdzany jest na sprzęcie z Athlonem X2 4000+ oraz Radeonem HD 3850.
Liczba punktów za projekt jest przydzielana na podstawie wyniku ze wzoru:
Points = 1500 * (DaysPerWU)
przy czym DaysPerWU oznacza, ile czasu zabrało ukończenie obliczeń zestawowi testowemu.
W przypadku projektów przeznaczonych dla procesorów wielordzeniowych podobny test jest przeprowadzany na komputerze z dwurdzeniowym Xeonem 2,33 GHz.
A oto wzór używany do wyznaczania liczby punktów za projekt.
Points = 1760 * (DaysPerWU)
Widać, że jest to liczone w zupełnie inny sposób. Jeden projekt przeznaczony dla kart graficznych jest przeważnie wyceniany na mniej niż 100 punktów, natomiast typowy projekt dla procesora to kwestia kilkuset punktów. Widać, że chociaż Radeon HD 4850 oraz nasz QX 9770 zdobyły porównywalną liczbę punktów, to Radeon musiał wykonać znacznie więcej pracy.
O skali przewagi kart graficznych nad procesorami w tego typu zadaniach świadczą wyniki badań wykonanych przez prowadzących ten projekt.
Wykres mówi, ile nanosekund życia proteiny dany układ potrafi zasymulować w ciągu dnia. Przewaga kart graficznych na tym polu jest niepodważalna.
A skąd tak duża różnica pomiędzy kartami AMD i NVIDI-i? Widzimy dwa możliwe powody. Pierwszy to łatwiejsze pisanie kodu dla CUDA. Drugi to problemy z optymalizacją. Radeony mają o wiele więcej jednostek liczących i bardzo ciężko je „nakarmić”. Potwierdza to chociażby niewielka różnica między wynikami Radeonów HD 4850 i starszych Radeonów HD 3870.
Podkręcanie
Dzięki przejściu na nowszy proces technologiczny układ może (z reguły) działać z szybszym zegarem. Oczywiście okazało się, że tak jest i tym razem.
Wyniki podkręcania 65-nanometrowej wersji GeForce'a 9800 GTX opisywaliśmy już wcześniej. Pierwszą wzięliśmy w obroty kartę MSI.
Jak widać, najwyższe prędkości zegarów, które udało nam się uzyskać, to 842, 2052 i 1242 MHz. Zaskakująco dobrze podkręca się pamięć. Mimo że są to dokładnie takie same kości, jakie były używane w kartach bez plusa w nazwie, udało nam się uzyskać zegar o 60 MHz szybszy.
Karta Zotac podkręcała się gorzej. Zegar taktujący jednostki cieniowania nie przekroczył nawet wartości uzyskanej przez starszego 9800 GTX. Natomiast pamięci działały z zegarem o jeszcze 10 MHz szybszym niż na karcie MSI.
Na podkręconej karcie MSI wykonaliśmy kilka testów w grach, w których wydajność karty niepodkręconej była bardzo zbliżona do wydajności Radeona HD 4850. Porównaliśmy je z wynikami uzyskanymi przez podkręconego Radeona HD 4850, taktowanego zegarami: GPU – 670 MHz, pamięć – 1120 MHz.
Nasz Radeon HD 4850 po podkręceniu zyskał 9,2% wydajności. GeForce 9800 GTX+ po podkręceniu zyskał pod względem średniej liczby klatek na sekundę 13,8%. Widać, że konstrukcja NVIDI-i ma jeszcze spory zapas mocy i po podkręceniu zwiększa swoją przewagę nad kartą AMD.
Temperatura, głośność, pobór mocy, napięcia zasilające
W tym artykule to jeden z najważniejszych działów, ponieważ najlepiej pokazuje różnice pomiędzy układami 55 nm i 65 nm.
Na wstępie drobne wyjaśnienie dotyczące Radeona 4850 użytego w tych testach. Otóż zaktualizowaliśmy mu BIOS do wersji, w której działa poprawnie funkcja PowerPlay i dostępny jest profil zarządzający wentylatorem, uniemożliwiający gotowanie wody na radiatorze.
Dzięki funkcji PowerPlay Radeony wygrywają w konkurencji poboru mocy w spoczynku. Interesujące jest porównanie 9800 GTX i GTX+ taktowanych takimi samymi zegarami. Okazuje się, że nowsza konstrukcja pobiera około 13 W mniej. Warto też zwrócić uwagę na porównanie podkręconego Radeona HD 4850 i standardowego 9800 GTX+. Podkręcona karta AMD ma wydajność prawie identyczną do karty NVIDI-i i w takich warunkach obie pobierają bardzo podobną ilość energii. Można tu mówić o zbliżonym współczynniku wydajności na wat.
Następną zaletą nowych procesów technologicznych jest mniejsza ilość ciepła wydzielanego przez wykonane w nich układy.
W pewnym sensie Radeon HD 4850 w tej konkurencji też „prowadzi”. Jest najgorętszy (nawet po zmianach w profilu zarządzającym chłodzeniem) oraz najgłośniejszy przy obciążeniu. Przejście na proces 55 nm przyniosło temperaturę o 7 stopni Celsjusza niższą, gdy układ jest taktowany zegarem swojego poprzednika i obciążymy go renderowaniem obrazu. Wyższe temperatury karty Zotac okazały się efektem zbyt grubej warstwy pasty termoprzewodzącej. Nałożenie nowej, lepszej spowodowało spadek temperatury układu o 3 stopnie. Nie ma większych różnic w poziomie generowanego przez schładzacze dźwięku – w końcu to te same konstrukcje. W spoczynku karty są bardzo ciche, prawie niesłyszalne. Pod obciążeniem towarzyszy nam lekki szum. Niestety, łożysko karty Zotac, którą otrzymaliśmy do testów, działało głośniej, niż powinno. Najprawdopodobniej jest to przypadłość naszego egzemplarza.
Sprawdziliśmy, czy NVIDIA zdecydowała się na obniżenie napięcia zasilającego rdzenia przy przejściu na nowy proces technologiczny.
Widać, że napięcie się nie zmieniło, mimo że taka możliwość istniała. Niższe napięcie zasilające mogłoby jeszcze bardziej obniżyć pobór prądu oraz temperatury. Miałoby to jednak negatywny wpływ na możliwości podkręcania. Poza tym ciężko oczekiwać pod tym względem zmian od układu „znikąd” – zaprojektowanego i wyprodukowanego minimalnym kosztem, korzystającego z identycznej płytki drukowanej co poprzednik.
Podsumowanie
GeForce 9800 GTX+ nie jest konstrukcją rewolucyjną, ale na pewno jest krokiem we właściwym kierunku. Przyzwoity 9800 GTX stał się jeszcze lepszy i stanowczo jest kartą wartą swojej ceny. Jest trochę szybszy od Radeona HD 4850, chłodniejszy i cichszy. Do tego oferuje zestaw dodatkowych funkcji związanych z CUDA, które jednak obecnie są bardziej ciekawostką i miłym dodatkiem, choć nie zaszkodzi ich mieć. Najciekawsza z tego wszystkiego jest technologia NVIDIA PhysX. Wykorzystywanie karty graficznej do przyspieszenia obliczeń fizycznych jest bardzo ciekawym rozwiązaniem, na pewno lepszym od tego, co zaprezentowała początkowo AGEIA. Ciężko powiedzieć, jaką przyszłość ma przed sobą to rozwiązanie. Obecnie tylko trzy dodatkowe mapy do Unreal Tournament 3 korzystają z zalet tej technologii (gier typu CellFactor nie bierzemy pod uwagę, bo był to rodzaj prezentacji technologii). Czy w przyszłości to się zmieni? Pożyjemy – zobaczymy. NVIDIA mówi o kilkunastu nowych grach do końca tego roku. Ciężko powiedzieć, czy będą to gry pokroju Ghost Recon: Advanced Warefight 2, w których włączenie PhysX dawało tylko trochę więcej latających śmieci i iskier, czy coś pokroju map do UT3.
Aplikacje typu Folding@Home oraz narzędzie do konwersji wideo, o którym pisaliśmy przy okazji premiery GTX 280, pokazują, jaki potencjał drzemie w CUDA. Niestety, nie istnieje zbyt wiele zastosowań, w których ten potencjał mógłby zostać wykorzystany. W najbliższym czasie możemy się spodziewać kilku dodatkowych programów. Najciekawiej wygląda zapowiedź wykorzystania CUDA w najnowszym Photoshopie.
Pozostaje kwestia ceny. GeForce 9800 GTX+ kosztuje około 100 zł więcej niż Radeon HD 4850, czyli 570 zł. Za 100 zł więcej otrzymujemy trochę wyższą wydajność, cichsze i wydajniejsze chłodzenie oraz paletę dodatkowych funkcji. Jeżeli liczy się dla Was jedynie współczynnik ceny do wydajności i nie przejmujecie się pewnymi niedoskonałościami schładzacza, to Radeon HD 4850 jest dla was. Jeżeli macie zapas gotówki i chcecie dopłacić, a w zamian dostać przyzwoity system chłodzący i kilka przydatnych dodatkowych funkcji, to GeForce 9800 GTX+ będzie idealny. W podobnej cenie można dostać Radeony HD 4850 z niereferencyjnym systemem chłodzenia, który jest cichszy i wydajniejszy. Wybór należy do Was.
Na zakończenie kilka słów na temat kart MSI oraz Zotac. Konstrukcja MSI jest warta uwagi. Duży zapas mocy i fabrycznie podwyższone zegary dla tych, którzy nie chcą się bawić w podkręcanie, w połączeniu z ceną zbliżoną do kart całkowicie referencyjnych tworzą bardzo przyjemną mieszankę. Dlatego przyznajemy karcie MSI N9800GTX PLUS-T2D512-OC naszą rekomendację.
Karta Zotaca niestety wypadła gorzej w naszym teście. Słabiej się podkręcała i miała problemy z łożyskami. Najprawdopodobniej jest to przypadłość egzemplarza, który dostaliśmy. Jednak nawet jeśli inne nie mają tych wad, to ta karta jest zbyt droga. Kosztuje około 90 złotych więcej niż konkurencyjny produkt MSI.
Do testów dostarczył: MSI
Cena w dniu publikacji (z VAT): 570 złotych
Do testów dostarczył: ZOTAC
Cena w dniu publikacji (z VAT): 650 złotych