Dzikas tego Cellfactora można faktycznie uruchomić bez PhysX ale szybkość działania jest taka jakbyś chciał na rivie TNT grać Dooma 3. A pozatym jak jesteś taki zafascynowany procesorem Cell to se na PlayStation3 poczekaj bo do PC go nigdy nie dadzom nie wiem po co żeś o tym cellu napisał. A skąd wiesz że czterordzeniowe procki AMD i Intela sobie z fizą nie poradzą,testowałeś już je i porównyałeś z Cellem?? To jesteś przerąbany koleś normalnie
ano wystarczy poczytac zagraniczne artykoly i pomyslec procek aby rownac sie z ageia musialby miec z 30 rdzeni i jeszcze by sie dlawil.
Za trzy lata w powszechnym użyciu będą procesory czterordzeniowe. Jeden z tych rdzeni będzie można przeznaczyć na obliczenia fizyczne, drugi na obliczenia związane z wizualizacją, trzeci na komunikację z użytkownikem (rozpoznawanie i synteza mowy, internet (VOIP), sterowanie grą), czwarty na sztuczną inteligencję botów. Przy takim nadmiarze mocy kupowanie akceleratora fizyki nie będzie konieczne.
to sobie pomnoz prez 8 to moze na fize starczy rdzeni
Za trzy lata w powszechnym użyciu będą procesory czterordzeniowe. Jeden z tych rdzeni będzie można przeznaczyć na obliczenia fizyczne, drugi na obliczenia związane z wizualizacją, trzeci na komunikację z użytkownikem (rozpoznawanie i synteza mowy, internet (VOIP), sterowanie grą), czwarty na sztuczną inteligencję botów. Przy takim nadmiarze mocy kupowanie akceleratora fizyki nie będzie konieczne.
Nie obraz sie na mnie ale czytam juz chyba druga twoja wypowiedz na forum i wydaje mi sie piszesz o rzeczach o ktorych nie masz zielonego pojecia, tylko ot tak sobie gdybasz. Przeciez jakby tak bylo jak piszesz to moglibysmy dodatkowych rdzeni uzywac do generowania grafiki 3d, czyz nie ? W koncu sie marnuja Czemu teraz uzywamy kart graficznych do sprzetowego generowania grafiki 3d ? Czy programowe generowanie przez grafiki nie bylo lepsze ??? Moze sie cofnijmy do czasow pre Voodoo ?!? Tak samo jest w tym przypadku pomysl jest dobry, z wykonaniem jeszcze nie najlepiej ale sadze ze ostatecznie procesor od obliczen fizycznych wyladuje na pcb karty graficznej...
CYTAT(Vymmiatacz)
Większość z was nie potrafiłaby dodać dwóch liczb w systemie binarnym, a dyskutujecie o rzeczach nad którymi myślały o wiele tęższe głowy...
Co w tym trudnego ? Przelicze na dziesietny dodam i z powrotem na binarny
Nie obraz sie na mnie ale czytam juz chyba druga twoja wypowiedz na forum i wydaje mi sie piszesz o rzeczach o ktorych nie masz zielonego pojecia, tylko ot tak sobie gdybasz. Przeciez jakby tak bylo jak piszesz to moglibysmy dodatkowych rdzeni uzywac do generowania grafiki 3d, czyz nie ? W koncu sie marnuja Czemu teraz uzywamy kart graficznych do sprzetowego generowania grafiki 3d ? Czy programowe generowanie przez grafiki nie bylo lepsze ??? Moze sie cofnijmy do czasow pre Voodoo ?!? Tak samo jest w tym przypadku pomysl jest dobry, z wykonaniem jeszcze nie najlepiej ale sadze ze ostatecznie procesor od obliczen fizycznych wyladuje na pcb karty graficznej...
Nie chodziło mi o samo generowanie grafiki, tylko o przygotowanie grafiki do wyrenderowania przez GPU karty graficznej. Karta graficzna jest tylko elementem wykonawczym, musi wiedzieć co ma narysować. Wiele gier komputerowych 3D jest podzielonych na część serwerową i kliencką, w podanym przeze mnie przykładzie za prawa fizyki odpowiadała by serwerowa część gry chodząca na jednym rdzeniu a za wizualizację część kliencka, współpracująca z kartą graficzną, działająca na drugim rdzeniu.
Co do pozostałych rdzeni to podałem przykłady dodatkowych możliwości które by gry zyskały dysponując czterordzeniowym procesorem, na razie możliwość nawet uproszczonego rozmawiania z botami (NPCami) pozostaje w sferze marzeń.
Taki procesor fizyki może umożliwić wykonywanie na zwykłym PC obliczeń dotychczas zarezerwowanych dla dużych komputerów. Myślę że firma by sporo zarobiła, gdyby zainteresowała się rynkiem profesjonalnym, możliwość wprawienia zaprojektowanej w autokadzie maszyny w ruch wraz z symulacją naprężeń i ewentualnych odkształceń, uszkodzeń i zużycia, byłaby bardzo pożyteczna. Architekci mogliby znacznie dokładniej niż obecnie liczyć statykę konstrukcji, symulować wpływ trzęsień ziemi, opadów śniegu, etc. Inną możliwością byłoby symulowanie reakcji chemicznych, automatyczne projektowanie leków metodą sztucznej ewolucji, etc. Mogę sobie wyobrazić farmy PCtów, każdy z czterema kartami PhysX, które miałyby wydajność superkomputera za ułamek kosztów.
Strzał w 10! Gdy ta karta będzie też wspierać sprzętowo inne zastosowania , a nie tylko gry, ma dużo większą szansę podbić rynek. Mimo wszystko, cena jest jak na razie za wysoka . Producenci kart Ageia mogli by wydać wersję uboższą, kosztującą np. 300zł. A ci, co tak narzekają na tą kartę: zobaczcie jaki ta karta ma potencjał! Tak jak parę osób wcześniej napisało, żaden z dzisiejszych procesorów nie jest w stanie przeprowadzić skomplikowanych obliczeń fizycznych odpowiednio szybko. Do tego potrzebna by była optymalizacja układu pod te zastosowania, a nie tylko programu odpowiedzialnego za sterowanie fizyką.
Kowboy, szkoda, że nie zrobiłeś testu z siłowo uruchomionym CellFactorem bez karty PhysX, wtedy by było dopiero odpowiednie porównanie w stosunku do CellFactora z PhysX -te same efekty, a wydajność bez karty Ageia zapewne nieporównywalnie niższa. Więc nie narzekajcie tak na wyniki w grze Ghost Recon, gdyby można ją było odpalić z tymi samymi efektami na komputerze bez karty PhysX, ca na kompie z tą kartą, to wyniki nie byłyby takie różowe.
Martwi mnie to, że: -1: żeby gry obsługiwały efekty PhysX, to programiści musieliby chyba pisać specjalny dosyć skomplikowany kod z instrukcjami dla tej karty, a jak wiadomo, wielu po prostu nie będzie się chciało tego robić, przez co ilość gier korzystających z tego będzie mocno ograniczona, no chyba, że wynalazek ten się przyjmie wśród graczy; -2: wielka szkoda, że te karty wykonali w procesie 130nm, a nie np. 90, gdzie zapewne można by sporzystać z rdzenia pasywnego oraz zminiaturyzować układ i pobór prądu. Za jakiś czas, gdy zmniejszą proces technologiczny będzie pewnie możliwe zamontowanie tego układu na PCB kart graficznych (oczywiście, gdy ta karta się przyjmie). Mimo wszystko trzymam kciuki za Ageia i czekam na produkty konkurencji i na nadchodzące gry obsługujące ten chip. -3: cena, i jeszcze raz cena
Karta ma olbrzymi potencjał, ale jak widać 90% ludzi wypowiadających się w tym wątku nie potrafi go dostrzec. Odkąd tylko pamiętam chciałem mieć w grach FPP/TPP realistyczną fizykę, ale producenci zawsze dawali nam nędzne namiastki. Te wyjątki które można było na placach jednej ręki policzyć i tak były oparte z reguły na Havoku i jedyne co miały do zaoferowania to w miarę realistycznie przewracające się butelki, pudła itp. A ja chcę więcej! Chcę wielkich przestrzeni usianych budynkami które mogę zrównać z ziemią jakimś wystrzałem z czołgowego działa czy innej bazooki, chcę dżungli pełnej drzew które mogę skosić mając broń a'la "usypiacz" z pierwszego terminatora! A tu guzik, same namiastki. Jedynie Red Faction umożliwiał na ten przykład przebicie się odpowiednio silną bronią przez ścianę wokół drzwi, ale też tylko w niektórych lokalizacjach, wszystko oczywiście dokładnie zaskryptowane. I nie dziwota, twórcy nie mogą sobie pozwolić na implementowanie bardziej skomplikowanej fizyki bo obciążony ponad miarę procesor nie będzie w stanie zapewnić odpowiednio płynnej rozgrywki. Z Ageią na pokładzie będzie. Co więcej, może się ten chip przyczynić do wzrostu realizmu w grach w większym stopniu niż myślimy - jeśli np. wszystko w pomieszczeniu będzie można zniszczyć odpowiednio silną bronią, to może w końcu autorzy gier będą musieli popracować nad ich realizmem i nie będzie więcej komicznych i żałosnych jednocześnie sytuacji gdy to powiedzmy stoimy przed zamkniętymi drzwiami z rozpadającego się drewna i musimy zapierniczać przez cały poziom w poszukiwaniu klucza do nich, bo pomimo tego że mamy 10 granatów, bazookę i shotguna to po wpakowaniu w nie całego tego arsenału nawet rysa się na nich nie pojawia... Inny przykład z życia wzięty - jak dziś pamiętam akcję z Call of Duty bodajże kiedy to trzeba było z działa strzelić w okno w którym ukrywał się jakiś snajper czy coś. Owszem, po strzale w wyznaczony przez autorów gry punkt fragment domu pięknie się rozpadał na kawałki. Tyle tylko że później można było sypać już do oporu w całą resztę budynku tego jak i innych, drzewa, płoty - wszystko po prostu niezniszczalne. Żałość... Ageia może zmusić developerów do bardziej sensownego planowania rozgrywki i ogólnego poprawienia jakości gier aby nie pojawiały się w nich więcej takie żenujące sytuacje jak ta wyżej.
I tak, jeśli za cenę kilku FPS dostałbym mnóstwo latających dookoła odłamków, realistyczne eksplozje i ich interakcję z otoczeniem etc. etc. to tak, jestem w stanie z nich zrezygnować. Co więcej, wcale się nie dziwię że ten spadek występuje - żeby coś odciążyć to coś (w tym przypadku cpu) musi być obciążone, a w dzisiejszych grach fizyka to margines, jest zwykle szczątkowa i maksymalnie uproszczona, a większość akcji jest zaskryptowana. Tu po prostu nie ma co odciążać, bo na fizykę przeznaczany jest i tak niewielki zwykle ułamek mocy obliczeniowej CPU. Przyspieszenie byłoby widać gdyby wszystkie gry tak obciążały fizyką CPU jak ta dołączona do zestawu z PhysX.
Mimo tych wszystkich potencjalnych możliwości to podejście Agei można chyba jednak uznać za nieudane - zwykłe pci zamiast pci-e, przestarzały wymiar technologiczny i co się z tym wiąże stosunkowo duży pobór mocy i konieczność używania denerwującego wiatraczka, mała ilość oprogramowania w chwili premiery, no i CENA! To wszystko sprawia, że ta karta oszałamiającego sukcesu raczej nie odniesie. Ale jej następcy, zwłaszcza jeśli chipy będa od razu montowane na kartach obok gpu, tudzież na mobo, mogą być sprawcami kolejnej rewolucji w dziedzinie gier i nie tylko, jeśli będzie ich można uzywać w programach użytkowych. A nic nie stoi chyba na przeszkodzie aby tak było... Rozwiązanie Nvidii natomiast uważam za poronione, już widzę jak chętnie ktoś poświęca drugiego 7900 GTX za 500 dolców tylko do obliczania fizyki, która i tak jego wykonaniu będzie pewnie mizerna (demo już widzieliśmy...).
Za trzy lata w powszechnym użyciu będą procesory czterordzeniowe. Jeden z tych rdzeni będzie można przeznaczyć na obliczenia fizyczne, drugi na obliczenia związane z wizualizacją, trzeci na komunikację z użytkownikem (rozpoznawanie i synteza mowy, internet (VOIP), sterowanie grą), czwarty na sztuczną inteligencję botów. Przy takim nadmiarze mocy kupowanie akceleratora fizyki nie będzie konieczne.
Jak staniesz na dachu i będziesz obserwował dajmy na to jakieś bombardowanie Berlina w Call of Duty 7, dookoła będą fruwały odłamki, latarnie, ręce i nogi, budynki będa się rozpadać w drobny mak, będą szaleć płomienie, a Twoje ośmiordzeniowe cudo dostanie zadyszki, to zmienisz zdanie.
Dobrze ze kompy są coraz cięższe bo już dawno by odfrunęły na tych wiatrakach jak helikopter w akompaniamencie " Lotu Walkirii " Wagnera...
Kurczę, drugi raz już dziś czytam o tym "kawałku", a nie pamiętam co to jest. Czy to nie przypadkiem to samo co w "Apocalypse now" jeden pan sobie puszczał "ocieplając" napalmem wietnamskie wioski?
Ta karta to krok do przodu w technologi i krok do tyłu w programowaniu.
Krok do przodu bo tworzony jest układ, ktry sobie dobrze poradzi z taką fizyką i wszystkimi obliczeniami, jeżeli dobrze to wykożystają to niedługo w grach będziemy mieć takie efekty że główka mała. W grach typu Battlefield 2 będzie można zrównać z ziemią miasto przy ogromnych kłębach dymu
Krok do tyłu, bo programiści sami by mogli napisac tak dobry system obliczania, ze procesor sam by sobie poradził. (cryengine2 się kłania, czy jak to się zwie)
Chodź fakt, przyszłość leży w nowym procesorze (czy to w jako nowa karta czy to jako zintegrowany układzik na innej karce/w procesorze).
Art dobry, szkoda ze nieproównaliście Cella z i bez PPU (fajna zabawa bez jest czasem xD). Mogliscie sprawdzić też jak to się ma do gier, które w ogole nie obsługują takiej karty, a gdzie jest troche fizyki.
tak... narazie to ciezko cos powiedziec, wydajnosc jak i dodatkowe efekty ruchu i interakcji. Potrzeba wiecej czasu/tytulow i bardziej je dopracowac pod wzgledem mozliwosci tej karty... (tak jak to ma miejsce wszedzie, pierwsze wersje nei sa takie jakie bysmy chcieli)
ps. Szkoda iz w testach nei pojawily sie filmiki prezentujace MOC jaka plynie z ASUS PhysX P1.
Przemknelo mi przez mysl takie cudo. Jakiego kopa daje AGEIA w polaczeniu ze slabszymi kartami i slabszymi prockami? Poza tym, nawet jesli to zalozenie byloby korzytsne , to cena na dzien dzisijeszy w ogole sie nie kalkuluje do performance. W sumie lepiej kupic 7800 / 7900 czy odpowiednik ATI i jest podobnie (na stan gierke z dnia dzisiejszego)
Wszyscy jadą po tym, że PhysX jest na starym PCI. I choć jestem w stanie zrozumieć, że stare złącze trochę spowalnia działanie samej karty i nie pozwala wykorzystać jej w pełni, tak argumenta, że zajmują miejsce uważam za zgoła... nieprzemyślane... co by tego dosadniej nie ujmować. Bez urazy.
Szanowni Państwo, zarówno autorzy jak i komentatorzy - 90% płyt głównych ma złącz PCI 3 lub więcej, a PCI-Ex1 jedno, które dodatkowo jest najczęściej położone albo tuż pod albo najlepiej pomiędzy dwoma złączami PCI-Ex16 w przypadku płyt pod SLI czy CrossFire. W dobie chłodzeń GPU zajmujących dodatkowe sloty to po prostu jakaś pomyłka by była robić PhysXa pod PCI-Ex1. Płyty z większą ilością PCI-Ex1 lub z ich rozsądniejszym położeniem to margines niestety nadal. Póki złącze PCI-Ex1 nie stanie się bardziej popularne i nie będą dostepne w większej jak jedno liczbie nie tylko w topowych typach płyt głównych puty stare PCI ma rację bytu.
Inna sprawa, że przydałoby się mieć wybór. A producenci kart rozszerzeń też mogliby zacząć robić swoje produkty pod PCI-Ex1 (nie kończąc produkcji pod PCI). Gdyby to w ten sposób zaczęto do tego podchodzić to już teraz mówilibyśmy od PCI jak tylko o echu przeszłości. No, ale to już można mieć pretensje nie tylko do AGEI, ale i do reszty.
Przemknelo mi przez mysl takie cudo. Jakiego kopa daje AGEIA w polaczeniu ze slabszymi kartami i slabszymi prockami?
Pewnie żadnego. Gry które ją wykorzystują są i tak wymagające i zwalniają obciążone dodatkową fizyką nawet na nowym sprzęcie, więc na starym w ogóle byłaby padaka pewnie.
Pewnie żadnego. Gry które ją wykorzystują są i tak wymagające i zwalniają obciążone dodatkową fizyką nawet na nowym sprzęcie, więc na starym w ogóle byłaby padaka pewnie.
chodzilo mi czy bylaby roznica na slabym sprzecie jak po przesiadce z s3 virge dx na voodoo1 w quake2 ale w sumie to mozesz miec racje - sorry nie kapuje dzisiaj za bardzo
Wszyscy jadą po tym, że PhysX jest na starym PCI. I choć jestem w stanie zrozumieć, że stare złącze trochę spowalnia działanie samej karty i nie pozwala wykorzystać jej w pełni, tak argumenta, że zajmują miejsce uważam za zgoła... nieprzemyślane... co by tego dosadniej nie ujmować. Bez urazy.
Szanowni Państwo, zarówno autorzy jak i komentatorzy - 90% płyt głównych ma złącz PCI 3 lub więcej, a PCI-Ex1 jedno, które dodatkowo jest najczęściej położone albo tuż pod albo najlepiej pomiędzy dwoma złączami PCI-Ex16 w przypadku płyt pod SLI czy CrossFire. W dobie chłodzeń GPU zajmujących dodatkowe sloty to po prostu jakaś pomyłka by była robić PhysXa pod PCI-Ex1. Płyty z większą ilością PCI-Ex1 lub z ich rozsądniejszym położeniem to margines niestety nadal. Póki złącze PCI-Ex1 nie stanie się bardziej popularne i nie będą dostepne w większej jak jedno liczbie nie tylko w topowych typach płyt głównych puty stare PCI ma rację bytu.
Jest różnie np. na mojej płycie mam kolejność: 2xPCI-Ex1, PCI-Ex16, 3xPCI i bardziej by mi pasowała karta na PCIEx1
Natomiast to ze wydano kartę na PCI na pewno nie wpływa na wydajnośc. Wszyscy patrzą na to przez perspektywę kart graficznych, ale przecież karta fizyki nie przesyła gigabajtów tekstur tylko wyniki obliczeń, na co duża przepustowośc nie jest potrzebna. Można tu dyskutować jedynie czy jest sens wypuszczać nowe karty na stare złącza, ale myslę że nie wpływa to na wydajność. Pamiętam jak modemy przechodziły z ISA na PCI i jakoś nie spowodowało to zwiększenia ich szybkości
Nie wiem czy widzieliście test PhysX w demie CellFactor na procesorach o różnej prędkości. Ja widziałem porównanie między Athlonem64 przy 2750 mhz i 1750 mhz i różnica jest podstawowa. Na szybszym procku jest 27 FPS a na słabszym 18 FPS. Wynika z tego, że szybkość tej gry jest wprost proporcjonalna do szybkoścu CPU. W takim razie niech mi ktoś wyjaśni czym zajmuje się PhysX skoro przy szybszym procku fizyka jest liczona szybciej ? Odpowiedź się nasuwa sama - niczym a fizykę liczy CPU. Jeżeli ktoś jest w stanie zinterpretować te wyniki inaczej to bardzo proszę - chętnie przeczytam.
coście się tak do tego porównania z voodoo przyczepili?
voodo nie był pierwszym akceleratorem 3d tylko pierwszym który w miarę działał... przed nim były karty jak s3 trio które można było raczej nazwać deakceleratorami...
tu możliwe że jest podobnie i dopiero któraś z kolejnych kart będzie "hitem"...
no chyba że tak jak inni sugerują fizyka zostanie połknięta przez karty graficzne...
Moim zdaniem powinni już robić płyty bez PCI. Może wówczas producenci kart by zrozumieli, że czas już przejść na PCIExpress. Podobnie nie powinno być na płytach złącz ATA, co by producenci napędó optycznych zrozumieli, że od 2 lat powinni już robić napędy SATA.
A tak w PCI to jest badziew a nie nowoczesna karta.
..i z tego samego powodu nadal mamy FLOPa w naszych komputrach..;p
Nie wiem czy widzieliście test PhysX w demie CellFactor na procesorach o różnej prędkości. Ja widziałem porównanie między Athlonem64 przy 2750 mhz i 1750 mhz i różnica jest podstawowa. Na szybszym procku jest 27 FPS a na słabszym 18 FPS. Wynika z tego, że szybkość tej gry jest wprost proporcjonalna do szybkoścu CPU. W takim razie niech mi ktoś wyjaśni czym zajmuje się PhysX skoro przy szybszym procku fizyka jest liczona szybciej ? Odpowiedź się nasuwa sama - niczym a fizykę liczy CPU. Jeżeli ktoś jest w stanie zinterpretować te wyniki inaczej to bardzo proszę - chętnie przeczytam.
graw to akurat kiepski przyklad bo tak skopanej gry dawno nie widzialem gry sa coraz lase na moc procka bo niezaleznie czy z ageia czy bez bedzie uzywany jako cpu czyli jednostka ktora musi wykorzystac obliczenia z ppu dla przeslania ich dalej. Jesli chodzi o grwa to z ageia physx jakosc fizy roznie w porownaniu z software wiecej sie dzieje wiecej obiektow jakie musi wyswietlnic karta i wiecej danych jakie musi przejsc przez proca
Akurat pisałem o Cellfactor a nie o GRAW. Gry są łase na moc procka - zgadza się niektóre są - ale wynika to właśnie z tego, że procek musi liczyć fizykę, AI oraz koordynować działania całej reszty sprzętu. Jeżeli w tym demie (Cellfactor) nie ma liczenia AI (załóżmy, że włączamy grę bez botów) to jedyne co pozostaje dla procka to liczenie fizyki i koordynacja pozostałych urządzeń. Gdy w kompie jest PhysX to praktycznie jedynym zajęciem dla procka pozostaje koordynacja działania całego systemu. A nikt mi nie wmówi, że coś takiego obciąża procesor na tyle, że wzrost jego prędkości przekłada się wprost proporcjonalnie na wzrost prędkości gry.
A pozatym jak jesteś taki zafascynowany procesorem Cell to se na PlayStation3 poczekaj bo do PC go nigdy nie dadzom nie wiem po co żeś o tym cellu napisał. A skąd wiesz że czterordzeniowe procki AMD i Intela sobie z fizą nie poradzą,testowałeś już je i porównyałeś z Cellem?? To jesteś przerąbany koleś normalnie
ano wystarczy poczytac zagraniczne artykoly i pomyslec
procek aby rownac sie z ageia musialby miec z 30 rdzeni i jeszcze by sie dlawil.
mozliwosci cella w fizie sa podobne
Jeden z tych rdzeni będzie można przeznaczyć na obliczenia fizyczne, drugi na obliczenia związane z wizualizacją, trzeci na komunikację z użytkownikem (rozpoznawanie i synteza mowy, internet (VOIP), sterowanie grą), czwarty na sztuczną inteligencję botów.
Przy takim nadmiarze mocy kupowanie akceleratora fizyki nie będzie konieczne.
to sobie pomnoz prez 8 to moze na fize starczy rdzeni
Jeden z tych rdzeni będzie można przeznaczyć na obliczenia fizyczne, drugi na obliczenia związane z wizualizacją, trzeci na komunikację z użytkownikem (rozpoznawanie i synteza mowy, internet (VOIP), sterowanie grą), czwarty na sztuczną inteligencję botów.
Przy takim nadmiarze mocy kupowanie akceleratora fizyki nie będzie konieczne.
Nie obraz sie na mnie ale czytam juz chyba druga twoja wypowiedz na forum i wydaje mi sie piszesz o rzeczach o ktorych nie masz zielonego pojecia, tylko ot tak sobie gdybasz. Przeciez jakby tak bylo jak piszesz to moglibysmy dodatkowych rdzeni uzywac do generowania grafiki 3d, czyz nie ? W koncu sie marnuja
Co w tym trudnego ? Przelicze na dziesietny dodam i z powrotem na binarny
niezupełnie, ma zając się fizyką, przy czym będzie to robił gdzieś 10 razy dokładniej
Nie chodziło mi o samo generowanie grafiki, tylko o przygotowanie grafiki do wyrenderowania przez GPU karty graficznej. Karta graficzna jest tylko elementem wykonawczym, musi wiedzieć co ma narysować.
Wiele gier komputerowych 3D jest podzielonych na część serwerową i kliencką, w podanym przeze mnie przykładzie za prawa fizyki odpowiadała by serwerowa część gry chodząca na jednym rdzeniu a za wizualizację część kliencka, współpracująca z kartą graficzną, działająca na drugim rdzeniu.
Co do pozostałych rdzeni to podałem przykłady dodatkowych możliwości które by gry zyskały dysponując czterordzeniowym procesorem, na razie możliwość nawet uproszczonego rozmawiania z botami (NPCami) pozostaje w sferze marzeń.
Myślę że firma by sporo zarobiła, gdyby zainteresowała się rynkiem profesjonalnym, możliwość wprawienia zaprojektowanej w autokadzie maszyny w ruch wraz z symulacją naprężeń i ewentualnych odkształceń, uszkodzeń i zużycia, byłaby bardzo pożyteczna. Architekci mogliby znacznie dokładniej niż obecnie liczyć statykę konstrukcji, symulować wpływ trzęsień ziemi, opadów śniegu, etc.
Inną możliwością byłoby symulowanie reakcji chemicznych, automatyczne projektowanie leków metodą sztucznej ewolucji, etc.
Mogę sobie wyobrazić farmy PCtów, każdy z czterema kartami PhysX, które miałyby wydajność superkomputera za ułamek kosztów.
Strzał w 10! Gdy ta karta będzie też wspierać sprzętowo inne zastosowania
Kowboy, szkoda, że nie zrobiłeś testu z siłowo uruchomionym CellFactorem bez karty PhysX, wtedy by było dopiero odpowiednie porównanie w stosunku do CellFactora z PhysX -te same efekty, a wydajność bez karty Ageia zapewne nieporównywalnie niższa. Więc nie narzekajcie tak na wyniki w grze Ghost Recon, gdyby można ją było odpalić z tymi samymi efektami na komputerze bez karty PhysX, ca na kompie z tą kartą, to wyniki nie byłyby takie różowe.
Martwi mnie to, że:
-1: żeby gry obsługiwały efekty PhysX, to programiści musieliby chyba pisać specjalny dosyć skomplikowany kod z instrukcjami dla tej karty, a jak wiadomo, wielu po prostu nie będzie się chciało tego robić, przez co ilość gier korzystających z tego będzie mocno ograniczona, no chyba, że wynalazek ten się przyjmie wśród graczy;
-2: wielka szkoda, że te karty wykonali w procesie 130nm, a nie np. 90, gdzie zapewne można by sporzystać z rdzenia pasywnego oraz zminiaturyzować układ i pobór prądu. Za jakiś czas, gdy zmniejszą proces technologiczny będzie pewnie możliwe zamontowanie tego układu na PCB kart graficznych (oczywiście, gdy ta karta się przyjmie). Mimo wszystko trzymam kciuki za Ageia i czekam na produkty konkurencji i na nadchodzące gry obsługujące ten chip.
-3: cena, i jeszcze raz cena
Pozdro
Karta ma olbrzymi potencjał, ale jak widać 90% ludzi wypowiadających się w tym wątku nie potrafi go dostrzec. Odkąd tylko pamiętam chciałem mieć w grach FPP/TPP realistyczną fizykę, ale producenci zawsze dawali nam nędzne namiastki. Te wyjątki które można było na placach jednej ręki policzyć i tak były oparte z reguły na Havoku i jedyne co miały do zaoferowania to w miarę realistycznie przewracające się butelki, pudła itp. A ja chcę więcej! Chcę wielkich przestrzeni usianych budynkami które mogę zrównać z ziemią jakimś wystrzałem z czołgowego działa czy innej bazooki, chcę dżungli pełnej drzew które mogę skosić mając broń a'la "usypiacz" z pierwszego terminatora! A tu guzik, same namiastki. Jedynie Red Faction umożliwiał na ten przykład przebicie się odpowiednio silną bronią przez ścianę wokół drzwi, ale też tylko w niektórych lokalizacjach, wszystko oczywiście dokładnie zaskryptowane. I nie dziwota, twórcy nie mogą sobie pozwolić na implementowanie bardziej skomplikowanej fizyki bo obciążony ponad miarę procesor nie będzie w stanie zapewnić odpowiednio płynnej rozgrywki. Z Ageią na pokładzie będzie. Co więcej, może się ten chip przyczynić do wzrostu realizmu w grach w większym stopniu niż myślimy - jeśli np. wszystko w pomieszczeniu będzie można zniszczyć odpowiednio silną bronią, to może w końcu autorzy gier będą musieli popracować nad ich realizmem i nie będzie więcej komicznych i żałosnych jednocześnie sytuacji gdy to powiedzmy stoimy przed zamkniętymi drzwiami z rozpadającego się drewna i musimy zapierniczać przez cały poziom w poszukiwaniu klucza do nich, bo pomimo tego że mamy 10 granatów, bazookę i shotguna to po wpakowaniu w nie całego tego arsenału nawet rysa się na nich nie pojawia... Inny przykład z życia wzięty - jak dziś pamiętam akcję z Call of Duty bodajże kiedy to trzeba było z działa strzelić w okno w którym ukrywał się jakiś snajper czy coś. Owszem, po strzale w wyznaczony przez autorów gry punkt fragment domu pięknie się rozpadał na kawałki. Tyle tylko że później można było sypać już do oporu w całą resztę budynku tego jak i innych, drzewa, płoty - wszystko po prostu niezniszczalne. Żałość... Ageia może zmusić developerów do bardziej sensownego planowania rozgrywki i ogólnego poprawienia jakości gier aby nie pojawiały się w nich więcej takie żenujące sytuacje jak ta wyżej.
I tak, jeśli za cenę kilku FPS dostałbym mnóstwo latających dookoła odłamków, realistyczne eksplozje i ich interakcję z otoczeniem etc. etc. to tak, jestem w stanie z nich zrezygnować. Co więcej, wcale się nie dziwię że ten spadek występuje - żeby coś odciążyć to coś (w tym przypadku cpu) musi być obciążone, a w dzisiejszych grach fizyka to margines, jest zwykle szczątkowa i maksymalnie uproszczona, a większość akcji jest zaskryptowana. Tu po prostu nie ma co odciążać, bo na fizykę przeznaczany jest i tak niewielki zwykle ułamek mocy obliczeniowej CPU. Przyspieszenie byłoby widać gdyby wszystkie gry tak obciążały fizyką CPU jak ta dołączona do zestawu z PhysX.
Mimo tych wszystkich potencjalnych możliwości to podejście Agei można chyba jednak uznać za nieudane - zwykłe pci zamiast pci-e, przestarzały wymiar technologiczny i co się z tym wiąże stosunkowo duży pobór mocy i konieczność używania denerwującego wiatraczka, mała ilość oprogramowania w chwili premiery, no i CENA!
Jeden z tych rdzeni będzie można przeznaczyć na obliczenia fizyczne, drugi na obliczenia związane z wizualizacją, trzeci na komunikację z użytkownikem (rozpoznawanie i synteza mowy, internet (VOIP), sterowanie grą), czwarty na sztuczną inteligencję botów.
Przy takim nadmiarze mocy kupowanie akceleratora fizyki nie będzie konieczne.
Jak staniesz na dachu i będziesz obserwował dajmy na to jakieś bombardowanie Berlina w Call of Duty 7, dookoła będą fruwały odłamki, latarnie, ręce i nogi, budynki będa się rozpadać w drobny mak, będą szaleć płomienie, a Twoje ośmiordzeniowe cudo dostanie zadyszki, to zmienisz zdanie.
Kurczę, drugi raz już dziś czytam o tym "kawałku", a nie pamiętam co to jest.
Krok do przodu bo tworzony jest układ, ktry sobie dobrze poradzi z taką fizyką i wszystkimi obliczeniami, jeżeli dobrze to wykożystają to niedługo w grach będziemy mieć takie efekty że główka mała. W grach typu Battlefield 2 będzie można zrównać z ziemią miasto przy ogromnych kłębach dymu
Krok do tyłu, bo programiści sami by mogli napisac tak dobry system obliczania, ze procesor sam by sobie poradził. (cryengine2 się kłania, czy jak to się zwie)
Chodź fakt, przyszłość leży w nowym procesorze (czy to w jako nowa karta czy to jako zintegrowany układzik na innej karce/w procesorze).
Art dobry, szkoda ze nieproównaliście Cella z i bez PPU (fajna zabawa bez jest czasem xD).
Mogliscie sprawdzić też jak to się ma do gier, które w ogole nie obsługują takiej karty, a gdzie jest troche fizyki.
ps. Szkoda iz w testach nei pojawily sie filmiki prezentujace MOC jaka plynie z ASUS PhysX P1.
Wszyscy jadą po tym, że PhysX jest na starym PCI. I choć jestem w stanie zrozumieć, że stare złącze trochę spowalnia działanie samej karty i nie pozwala wykorzystać jej w pełni, tak argumenta, że zajmują miejsce uważam za zgoła... nieprzemyślane... co by tego dosadniej nie ujmować. Bez urazy.
Szanowni Państwo, zarówno autorzy jak i komentatorzy -
90% płyt głównych ma złącz PCI 3 lub więcej, a PCI-Ex1 jedno, które dodatkowo jest najczęściej położone albo tuż pod albo najlepiej pomiędzy dwoma złączami PCI-Ex16 w przypadku płyt pod SLI czy CrossFire. W dobie chłodzeń GPU zajmujących dodatkowe sloty to po prostu jakaś pomyłka by była robić PhysXa pod PCI-Ex1. Płyty z większą ilością PCI-Ex1 lub z ich rozsądniejszym położeniem to margines niestety nadal. Póki złącze PCI-Ex1 nie stanie się bardziej popularne i nie będą dostepne w większej jak jedno liczbie nie tylko w topowych typach płyt głównych puty stare PCI ma rację bytu.
Inna sprawa, że przydałoby się mieć wybór. A producenci kart rozszerzeń też mogliby zacząć robić swoje produkty pod PCI-Ex1 (nie kończąc produkcji pod PCI). Gdyby to w ten sposób zaczęto do tego podchodzić to już teraz mówilibyśmy od PCI jak tylko o echu przeszłości. No, ale to już można mieć pretensje nie tylko do AGEI, ale i do reszty.
Pozdrawiam
Pewnie żadnego. Gry które ją wykorzystują są i tak wymagające i zwalniają obciążone dodatkową fizyką nawet na nowym sprzęcie, więc na starym w ogóle byłaby padaka pewnie.
Co z tym filmikiem??
chodzilo mi czy bylaby roznica na slabym sprzecie jak po przesiadce z s3 virge dx na voodoo1 w quake2
Wszyscy jadą po tym, że PhysX jest na starym PCI. I choć jestem w stanie zrozumieć, że stare złącze trochę spowalnia działanie samej karty i nie pozwala wykorzystać jej w pełni, tak argumenta, że zajmują miejsce uważam za zgoła... nieprzemyślane... co by tego dosadniej nie ujmować. Bez urazy.
Szanowni Państwo, zarówno autorzy jak i komentatorzy -
90% płyt głównych ma złącz PCI 3 lub więcej, a PCI-Ex1 jedno, które dodatkowo jest najczęściej położone albo tuż pod albo najlepiej pomiędzy dwoma złączami PCI-Ex16 w przypadku płyt pod SLI czy CrossFire. W dobie chłodzeń GPU zajmujących dodatkowe sloty to po prostu jakaś pomyłka by była robić PhysXa pod PCI-Ex1. Płyty z większą ilością PCI-Ex1 lub z ich rozsądniejszym położeniem to margines niestety nadal. Póki złącze PCI-Ex1 nie stanie się bardziej popularne i nie będą dostepne w większej jak jedno liczbie nie tylko w topowych typach płyt głównych puty stare PCI ma rację bytu.
Jest różnie np. na mojej płycie mam kolejność: 2xPCI-Ex1, PCI-Ex16, 3xPCI i bardziej by mi pasowała karta na PCIEx1
Natomiast to ze wydano kartę na PCI na pewno nie wpływa na wydajnośc. Wszyscy patrzą na to przez perspektywę kart graficznych, ale przecież karta fizyki nie przesyła gigabajtów tekstur tylko wyniki obliczeń, na co duża przepustowośc nie jest potrzebna. Można tu dyskutować jedynie czy jest sens wypuszczać nowe karty na stare złącza, ale myslę że nie wpływa to na wydajność. Pamiętam jak modemy przechodziły z ISA na PCI i jakoś nie spowodowało to zwiększenia ich szybkości
voodo nie był pierwszym akceleratorem 3d tylko pierwszym który w miarę działał... przed nim były karty jak s3 trio które można było raczej nazwać deakceleratorami...
tu możliwe że jest podobnie i dopiero któraś z kolejnych kart będzie "hitem"...
no chyba że tak jak inni sugerują fizyka zostanie połknięta przez karty graficzne...
tak tak, pamiętam ja tego cuda techniki...
A tak w PCI to jest badziew a nie nowoczesna karta.
..i z tego samego powodu nadal mamy FLOPa w naszych komputrach..;p
graw to akurat kiepski przyklad bo tak skopanej gry dawno nie widzialem
gry sa coraz lase na moc procka bo niezaleznie czy z ageia czy bez bedzie uzywany jako cpu czyli jednostka ktora musi wykorzystac obliczenia z ppu dla przeslania ich dalej. Jesli chodzi o grwa to z ageia physx jakosc fizy roznie w porownaniu z software wiecej sie dzieje wiecej obiektow jakie musi wyswietlnic karta i wiecej danych jakie musi przejsc przez proca
Akurat pisałem o Cellfactor a nie o GRAW.
Gry są łase na moc procka - zgadza się niektóre są - ale wynika to właśnie z tego, że procek musi liczyć fizykę, AI oraz koordynować działania całej reszty sprzętu. Jeżeli w tym demie (Cellfactor) nie ma liczenia AI (załóżmy, że włączamy grę bez botów) to jedyne co pozostaje dla procka to liczenie fizyki i koordynacja pozostałych urządzeń. Gdy w kompie jest PhysX to praktycznie jedynym zajęciem dla procka pozostaje koordynacja działania całego systemu. A nikt mi nie wmówi, że coś takiego obciąża procesor na tyle, że wzrost jego prędkości przekłada się wprost proporcjonalnie na wzrost prędkości gry.