artykuły

GeForce GTX 280 – pogromca Core 2 Extreme?

NVIDIA wypowiada wojnę Intelowi!

188
16 czerwca 2008, 15:00 Paweł Pilarczyk

Blisko półtora miliarda tranzystorów, 240 rdzeni, moc 933 gigaflopów, zintegrowany 512-bitowy kontroler pamięci, własna pamięć podręczna, technologia produkcji 65 nm, powierzchnia rdzenia 576 mm2. Brzmi jak specyfikacja futurystycznego procesora – jeśli pominąć „przestarzałą” technologię produkcji. To jednak nie CPU. To parametry najnowszego układu graficznego NVIDIA GeForce GTX 280, który dzisiaj zostaje oficjalnie wprowadzony. Prezentujemy jego pierwsze testy.

Spis treści

Nowy układ graficzny, znany też pod nazwą kodową GT200, to bardzo ważny projekt dla NVIDI-i. Po raz pierwszy przedstawiciele firmy podkreślają, że wydajność w zastosowaniach graficznych nie jest już jedynym parametrem, na który powinniśmy zwracać uwagę. Na GT200 należy patrzeć ze znacznie szerszej perspektywy. Sama NVIDIA sugeruje, że układ powinniśmy traktować jako procesor ogólnego przeznaczenia, a nie tylko chip przetwarzający grafikę płaską i trójwymiarową. Firma zachęca nawet do porównywania jego wydajności do osiągów najszybszych czterordzeniowych procesorów Intela. Ponoć GeForce GTX 280 w pewnych zastosowaniach, jak symulacja fizyki czy konwersja wideo, jest nawet kilkadziesiąt razy szybszy od Core 2 Extreme QX9770! Czy to oznacza, że NVIDIA puści Intela z torbami?

Po serii „odgrzewanych kotletów”, takich jak: GeForce 9800 GTX, 9800 GX2, 9600 GT, a nawet 8800 GTS i 8800 GT, wreszcie doczekaliśmy się układu, w którym poczyniono znaczące modyfikacje. GT200 to najbardziej zaawansowany układ graficzny, jaki kiedykolwiek ujrzał światło dzienne. 1,4 miliarda tranzystorów, 240 programowalnych procesorów cieniujących (ang. shader processor), 80 jednostek mapujących tekstury i 512-bitowy kontroler pamięci – widzimy tu znaczny postęp w stosunku do układów G80 czy G92, które stanowiły serca kart GeForce 8800 GTX, GTS i GT oraz GeForce 9800 GTX i GX2.



GeForce 8800 GTX kontra GeForce GTX 280

GeForce GTX 280 to następny produkt NVIDI-i obsługujący technikę CUDA, o której szczegółowo pisaliśmy przy okazji wprowadzenia GeForce’a 8800 GTX. Układ można zaprząc nie tylko do tworzenia trójwymiarowych światów w grach czy chociażby rysowania pulpitu Windows, ale także to zaawansowanych obliczeń, przy których pocą się najnowsze czterordzeniowe procesory: symulacji efektów fizycznych, konwersji wideo, ale także obliczeń finansowych czy symulacji zwijania białek (ang. protein folding). Jak informuje NVIDIA, w zastosowaniach tych GT200 jest średnio kilkanaście, ale czasami nawet ponad sto razy szybszy od czterordzeniowych układów Intel Penryn działających z zegarem 3 GHz!


Przez ostatnie dwa lata twierdzenia firm ATI i NVIDIA, że układy graficzne rozkładają na łopatki w pewnych zastosowaniach CPU, większość z nas traktowała jako ciekawostkę. Możliwość konwersji dwugodzinnego filmu wideo w kilkanaście minut (zamiast w kilka godzin) brzmiała kusząco, ale długo musieliśmy czekać, by przekonać się, jak hurraoptymistyczne zapowiedzi NVIDI-i i ATI mają się do praktyki. Wraz z GTX 280 dostaliśmy jednak kilka aplikacji „niegraficznych”, które wykorzystują moc układu. I rzeczywiście, programy robią wrażenie!

Dwudziestokrotne przyspieszenie kodowania filmów to jednak dopiero początek. Według danych NVIDI-i w obliczeniach finansowych (symulacje modelu LIBOR) GPU jest szybszy od CPU 150 razy!

Według prognoz NVIDI-i w przyszłości układy graficzne będą pełnić rolę akceleratorów ogólnego zastosowania, przyspieszających najbardziej czasochłonne operacje obliczeniowe. Procesor komputera będzie się zajmować tylko obsługą systemu operacyjnego. NVIDIA zapewnia, że w zupełności wystarczający będzie typowy, niedrogi dwurdzeniowy CPU o zegarze około 2 GHz, taki jak Core 2 Duo czy Athlon 64 X2. A tam, gdzie niezbędna będzie potężna moc obliczeniowa, wkraczać będzie GPU.

Wszystko jednak w rękach programistów – czy zechcą korzystać z udostępnionego im przez NVIDI-ę interfejsu CUDA? Aby zachęcić ich do pisania aplikacji wykorzystujących CUDA, NVIDIA organizuje nawet konkursy z nagrodami. Jeśli jednak korzyści z zaprzęgania GPU do pewnych obliczeń są tak duże, jak to sugeruje NVIDIA, programistów nie będzie trzeba szczególnie namawiać.

Strona:
adam_MZobacz profil
Poziom ostrzeżenia: 0%
adam_M2008.06.16, 15:02
no w końcu .. nic cały dzien oczekiwania i trza sie brac za czytanie :))
mikilysZobacz profil
Poziom ostrzeżenia: 0%
mikilys2008.06.16, 15:04
No to czytamy =)
bazylorakisZobacz profil
Poziom ostrzeżenia: 0%
bazylorakis2008.06.16, 15:05
PCLab jak zawsze na czas!
skicikZobacz profil
Poziom ostrzeżenia: 0%
skicik2008.06.16, 15:07
pierwsza tabelka: gtx280 i 260 mają po tyle samo tranzystorów? coś nie halo, skoro gtx260 ma mniej procesorów, rops i tfu. wtf? :E
NudziarzZobacz profil
Poziom ostrzeżenia: 0%
Nudziarz2008.06.16, 15:09
Zabieram się do czytania :).
michaelmZobacz profil
Poziom ostrzeżenia: 0%
michaelm2008.06.16, 15:11
Wszystko w rękach programistów, gdyby aplikacje potrafiły w pełni wykorzystywać CUDA, c2d quad itp to by było fajnie :P no może do szczęścia jeszcze potrzeba darmowych programów wspierających PureViedo HD.
Radek0909Zobacz profil
Poziom ostrzeżenia: 0%
Radek09092008.06.16, 15:18
Wiedziałem, że jest publikowany jakiś art - forum i strona główna się zacinały :P
No to czytamy!
Matthew87Zobacz profil
Poziom ostrzeżenia: 0%
Matthew872008.06.16, 15:19
-1#8
'I nic nie wskazuje na to, by nadchodzący Radeon HD 4870 miał zagrozić nowym GeForce’om.' Eee? Brzmi to tak jakby nVidia zapłaciła PCLabowi za to, żeby już przed premierą nowych Radeonów zrobić im złą sławę. Bo nawet jeżeli nowe Radeony nie będę znacznie szybsze, to dużo GeForce'om nie ustąpią i będę od nich znacznie tańsze. Myślę że z tym ostatnim zdaniem warto by zaczekać na premierę Radeona HD 4870.
Bllu-ManZobacz profil
Poziom ostrzeżenia: 0%
Bllu-Man2008.06.16, 15:19
Gratz! Gratz! Wszystko spoko, ale niestety w Crysisie, nadal nie grywalnie ! 1280x1024 maks detale i troche wygładzania i już grafa NIE DAJE RADY !!! Podane kwoty są za wysokie dziś opublikowano informacje o obniżce cen tych GPU. Więc ceny spadna od 50-150 $ w zależności od mdelu !! więc zakup może okazać się opłacalny ! :) Zwiodłem się trochę bo to nie jest tam moc w grach , natomiast wizja zastąpienia CPU przez GPU jest bardzo ale to bardzo interesująca !! Czekam na pokaz dodatkowych możliwości nowej karty ! No i brawo za pobór mocy ! :)

Co można dodać , trzeba było cierpliwie czekać i dostaliśmy 'Potworka' ale bez ' kłów' :) jest dobry, , jednak opinie o tym że powala są przesadzone. Pozdro dla Autora !
Vesp3rZobacz profil
Poziom ostrzeżenia: 0%
Vesp3r2008.06.16, 15:19
Fakt jest najszybsza, ale z zapowiedzi się spodziewałem czegoś lepszego :/

na+ napewno wykorzystanei grafy do czegoś innego, sam sie mam zamair w to pobawić przy magisterce.
Zaloguj się, by móc komentować
1