Inne
Artykuł
Sebastian Stolarczyk, Poniedziałek, 15 maja 2006, 09:59
Gracze mają wiele powodów do radości, ponieważ komputery i konsole są dzisiaj lepsze niż kiedykolwiek. Platformy są potężniejsze, wirtualne scenerie bardziej szczegółowe, a postacie wyglądają coraz naturalniej. W grach jest więcej akcji, lepsze oświetlenie, fantastyczne efekty specjalne, imponujące cienie i bogatszy dźwięk. Czymś, co nadal zdaje się dopiero raczkować jest fizyka. Fizyka w grach to sposób, w jaki poruszają się i reagują obiekty. To nie sam wygląd przedmiotów, ale przede wszystkim ich zachowanie i wzajemne oddziaływanie. Niestety w większości dzisiejszych gier pozostawia ono wiele do życzenia - szereg czynności jest wcześniej zdefiniowany w skryptach programistów. Szansę dostrzegła tutaj mało popularna firma AGEIA, która właśnie wprowadza na rynek swój najnowszy produkt - układ PhysX, czyli sprzętowy akcelerator fizyki (PPU - Physics Processing Unit). Czy układ ma szansę podbić rynek i zapoczątkować erę bardziej realistycznych gier? Zapraszamy do lektury testu karty ASUS PhysX P1.

Do tej pory w najbardziej zaawansowanych tytułach implementowano jedynie programowe wsparcie fizyki, co oznacza, że za symulację interakcji obiektów odpowiedzialny był procesor komputera, który zajmował się również logiką, koordynacją zadań i sztuczną inteligencją postaci niezależnych. W efekcie fizyka sprowadzała się do mocno ograniczonej liczby ruchomych przedmiotów albo różnych sztuczek programistycznych, które mają za zadanie symulowanie funkcjonowania praw fizycznych.

Sprzętowe wspomaganie różnych interfejsów API fizyki zostało zapowiedziane przez kilka wiodących firm. Microsoft przygotowuje interfejs DirectPhysics i opracowuje zaawansowane metody przetwarzania tego typu obliczeń. Do najprostszych zadań z powodzeniem można dziś wykorzystać CPU, jednak nie został on specjalnie zoptymalizowany pod tym kątem, stąd nie nadaje się on do bardziej zaawansowanych zastosowań. Procesor jest bardzo szybki w wykonywaniu ogólnych operacji, lecz stosunkowo przeciętny w wyspecjalizowanych funkcjach, jak grafika czy fizyka. Poza tym procesor jest już obciążony nadzorowaniem procesu tworzenia grafiki 3D i sztuczną inteligencją przeciwników w grze, więc nie można mu przypisać skomplikowanych i długich instrukcji liczenia fizyki. Niedawno firma Havok zapowiedziała Havok FX, który przyspiesza kalkulację fizyki, wykorzystując do tego celu jedną z kart graficznych NVDIA pracujących w tandemie SLI. Zapowiedziano też możliwość wykorzystania w przyszłości pojedynczego akceleratora. Firma ATI również mówi o akceleracji fizyki za pośrednictwem GPU. Pamiętacie z pewnością demo Toy Shop, które pokazano przy okazji premiery układów Radeon X1000. W demonstracji tor kropli deszczu spływających po szybie był obliczany właśnie przez GPU. Mimo wszystko wielordzeniowy CPU ma pewne atuty w stosunku do obliczeń fizyki za pomocą GPU. Wewnętrzna przepustowość pamięci, na przykład, jest większa niż wewnętrzna przepływność pamięci GPU z pamięci podręcznej tekstur.

Obecnie na rynek trafił pierwszy sprzętowy akcelerator fizyki - specjalna karta rozszerzeń, której zadaniem jest zaawansowane symulowanie zachowania obiektów w grach. Produkt do niedawna zupełnie nieznanej firmy AGEIA nazwano PhysX. Czy zrewolucjonizuje on nadchodzące gry?

Ocena artykułu:
Brak ocen
Zaloguj się, by móc oceniać
el_presidente (2006.05.15, 10:18)
Ocena: 0

0%
LOL 1k zeby zobaczyc kilka odlamkow wiecej. Porownanie wydajnosci rozwalilo mnie kompletnie.
Po kiego grzyba sa desktopowe dual core? Drugi rdzen moglby policzyc tyle fizyki bez dodatkowego szumu wiatraka i kolejnych watow.
Cisol (2006.05.15, 10:27)
Ocena: 0

0%
Technologia dopiero raczkuje
skonczy sie to pewnie wykupieniem tej firmy przez NVidie lub ATI i zintegrowaniem w jedna plytke PCB
w tej chwili jest zbyt duzo niedociagniec, sprzetowe wspomaganie powinno przyspieszyc gre a nie spowolnic, co wiecej powinno przejac obliczenie wszystkich elementow fizyki (nie mam pewnosci ze tak jest)
nastepnie zle rozwiazana jest konstrukcja ze GPU musi stracic czesc swojej mocy na przeslanie danych do PPU

ludzie pamietajacy czasy Voodoo1 wiedza jakiego powerka dawal ten akcelerator smilies/smile.gif
co do PCI to nie ma znaczenia, bo szybko moga zrobic pciex smilies/smile.gif

na chwile obecna PPU przyjmie sie:
- za dwa lata jak technologia dojrzeje
- lub jak cena spadnie do 200zl smilies/lol2.gif
krzychoo (2006.05.15, 10:29)
Ocena: 0

0%
z tego PhysX taki troche gadzet smilies/wink.gif (jak narazie)
CYTAT(el_presidente @ 15 maja 2006, 10:18) <{POST_SNAPBACK}>
Po kiego grzyba sa desktopowe dual core? Drugi rdzen moglby policzyc tyle fizyki bez dodatkowego szumu wiatraka i kolejnych watow.

mimo ze wydawaloby sie inaczej nawet 1 caly rdzen nie jest w stanie tego policzyc smilies/wink.gif widzialem jakis tam tescik "z kamieniami" i Pentium EE wyciagal 5 fps przy obiciazonych 2 rdzeniach a z PhysX bylo chyba z 40 smilies/wink.gif
Olson (2006.05.15, 10:35)
Ocena: 0

0%
Sporo gier ma to wykorzystywac pod koniec roku. Ciekawe czy sie przyjmie. Czyzby przelom na miare voodoo 1 lub GF ? Tylko cos znaczniej mialo odciazac gry. Zobaczymy, narazie cena zaporowa.
wiegul (2006.05.15, 10:35)
Ocena: 0

0%
CYTAT
Teoretyczne możliwości PPU przedstawiają się następująco: 20 miliardów instrukcji na sekundę, 530 milionów kolizji typu Sphere-Sphere (też na sekundę) oraz 533 tysiące zderzeń Convex-Convex (na sekundę).

A tak bardziej po "ludzku", to co to oznacza? smilies/bigsmile.gif

A co do ceny, to jak tysiąc przy premierze kosztuje, to za kilka lat, jak się przyjmie, pewnie i 200 będzie kosztowała.

Jesli chodzi o to, czy warto będzie ją kupić, to jestem pewien, że tak, jak bedzię więcej gier, ją obsługujących.
krzychoo (2006.05.15, 10:38)
Ocena: 0

0%
CYTAT(wiegul @ 15 maja 2006, 10:35) <{POST_SNAPBACK}>
A co do ceny, to jak tysiąc przy premierze kosztuje, to za kilka lat, jak się przyjmie, pewnie i 200 będzie kosztowała.

Gdzies czytalem, ze co jakis czas maja byc wypuszczane kolejne wersje PhysX, wiec z tym spadkiem cen moze byc roznie. Chyba, ze bedzie to tak jak kartami muzycznymi (ale watpie smilies/tongue.gif ).
*Konto usunięte* (2006.05.15, 10:39)
Ocena: 0
Przydałby się jakiś filmik prezentujacy te możliwości
pila (2006.05.15, 10:46)
CYTAT(Arbuziak @ 15 maja 2006, 10:39) <{POST_SNAPBACK}>
Przydałby się jakiś filmik prezentujacy te możliwości

A arcik czytał? smilies/tongue.gif
*Konto usunięte* (2006.05.15, 10:49)
Ocena: 0
FPS'y spadly bo jak napisal kowboy, bo bylo wiecej efektow (liscie, odlamki zderzajace sie ze soba) a te efekty musiala tak czy tak wyswietlic karta graficzna, ot dlaczego liczba klatek jest mniejsza. Przy grze gdzie w trybie sprzetowym i programowym bylo by tyle samo obliczen fizycznych pewnie roznica bylaby na niekorzysc emulowania. Ogolnie mysle jednak ze ta karta sie nie przyjmie i producenci kart graficznych przejma paleczke - moze to nie jest ich bezposrednia konkurencja ale jak widza mozliwosc zarobienia kilku dolarkow wiecej to pewnie jej nie przepuszcza smilies/wink.gif
Vega (2006.05.15, 10:50)

0%
Jak to powiedział chińczyk z Ani Mru Mru - "O kutwa...", szajsem było, szajsem jest - Viva la PhysX. smilies/lol2.gif smilies/lol2.gif

A tak od siebie to smilies/rotfl.gif ... se nie kupię, bo nie mam nawet slotu PCI aby to wsadzić. smilies/lol2.gif Dobrze że na ISA tego nie walnęli... smilies/szczerbaty.gif
Zaloguj się, by móc komentować
Facebook
Ostatnio komentowane