komentarze
fizykplZobacz profil
Poziom ostrzeżenia: 0%
fizykpl2008.09.15, 15:41
sorry ale wole taka kase wydac na c2q extreme ;)
StnkkZobacz profil
Poziom ostrzeżenia: 0%
Stnkk2007.07.19, 01:15
Fajny pomysł, popieram, w przyszłości powstanie pewnie też jakiś AIPU, wspomnicie moje słowa za kilka lat ;] I wtedy będzie magiczny czworokąt mocy ;] Trochę niedociągnięć jest w tej karcie, ale trzymam kciuki za producentów tej karty i życzę im powodzenia przy pracach nad kolejną edycją.

Upsi, nie użyłem mózgu do sprawdzenia daty topicu ;/
poliZobacz profil
Poziom ostrzeżenia: 0%
poli2006.08.10, 15:20
CYTAT(ratt @ 28 maja 2006, 21:20) <{POST_SNAPBACK}>
Eh.. Osobiście uważam że PhysX to świetny pomysł i potrzeba czasu byśmy go docenili - nie patrzmy na takie głupoty jak cena czy chłodzenie ... to są dopiero początki... w/g mnie PPU stanie się równie powszechne co GPU kiedyś. za kilka lat z pewnością powstaną gry , które będą na tyle zaawansowane, ze PPU będzie koniecznością.. na dzień dzisiejszy grafika gier komputerowych stoi na wysokim poziomie.. a fizyka ? jak wielu z was zauważyło jest to najsłabszy punkt ... PPU będzie rewolucją, będzie prawdziwym sukcesem.. smilies/thumbup.gif


powiedział co wiedział i przepadł smilies/lol2.gif
VincentusZobacz profil
Poziom ostrzeżenia: 0%
Vincentus2006.06.01, 17:09
dobra dobra... kazdy wie, ze ta sama robote co PhysX moze odwalic drugie jajo w proc dwurdzeniowych
*Konto usunięte*2006.05.28, 21:20
Eh.. Osobiście uważam że PhysX to świetny pomysł i potrzeba czasu byśmy go docenili - nie patrzmy na takie głupoty jak cena czy chłodzenie ... to są dopiero początki... w/g mnie PPU stanie się równie powszechne co GPU kiedyś. za kilka lat z pewnością powstaną gry , które będą na tyle zaawansowane, ze PPU będzie koniecznością.. na dzień dzisiejszy grafika gier komputerowych stoi na wysokim poziomie.. a fizyka ? jak wielu z was zauważyło jest to najsłabszy punkt ... PPU będzie rewolucją, będzie prawdziwym sukcesem.. smilies/thumbup.gif
LeonidasZobacz profil
Poziom ostrzeżenia: 0%
Leonidas2006.05.23, 13:16
CYTAT(period @ 22 maja 2006, 16:54) <{POST_SNAPBACK}>
jeżeli komuś wystarczy to co było np. w HL2 to nie mam pytań.



Jak na sprzęt nie wspomagany żadnym akceleratorem fizyki to absolutnie wystarczy mi to co widziałem w HL2 - efekt jest naprawdę świetny.
Z drugiej strony - absolutnie nie wystarczy mi to co prezentują Ghost Recon i CellFactor - od karty fizyki wymagam dużo więcej.

Jak na razie to efekty zaprezentowane w tych dwóch grach nie robią na mnie większego wrażenia niż te z HL2. Sztuką dla programisty jest zastosować określone efekty w sposób rozsądny, nie nachalny tak aby gracz nie miał wrażenia, że ktoś nawrzucał je na siłę. Poszczególne efekty muszą wynikać z potrzeb danej gry a nie z chęci ich zaprezentowania przez programistę/producenta sprzętu. Na przykład pardzo podobała mi się animacja cieczy i wyginania blach w filmiku z Unreal Engine - na takie rzeczy warto czekać.
*Konto usunięte*2006.05.23, 02:55
CYTAT(krzychd @ 22 maja 2006, 22:39) <{POST_SNAPBACK}>
A nie można swoich racji przedstawić w sposób kulturalny? Plujesz jadem, że trzeba ściereczką z monitora zbierać. Może masz rację a może nie, od tego jest forum dyskusyjne, żeby podyskutować.

Wiesz kiedy czytam rzeczy czasem tak głupie, że dzieciakom z podstawówki byłoby wstyd to krew mi się w żyłach gotuje. Przecież nie wymagam cudów tylko żeby niektórzy pomyśleli zanim coś napiszą - to nic nie kosztuje i nie boli. Nie chcę tu nikogo obrażać, oczekuję jedynie myślenia.
MacBirdieZobacz profil
Poziom ostrzeżenia: 0%
MacBirdie2006.05.22, 23:25
Pamiętaj że u dużych producentów programiści nie mają zbyt wiele do gadania pod kątem wykorzystania technologii, bo zazwyczaj po prostu terminy gonią, firma chce szybko grę wypuścić i nie ma czasu na rzeźbienie cacka z najwyższej półki i zajmowania się szejderem dla jakiegoś efektu przez miesiąc. Jestem pewien że programiści niejednego wydawcy by chcieli pobawić się najnowszymi zabawkami i zrobić z nich naprawdę świetny pożytek, ale wtedy musieliby po prostu pójść na półroczny urlop bezpłatny, bo nikt za bawienie się nie zapłaci, tylko za konkretne efekty pracy wg konkretnego planu mającego na celu wypuszczenie czegoś na rynek.
Z drugiej strony widać po ludkach z Crytech, Valve czy id Software, że dają sobie czas i nakłady pracy na pogrzebanie właśnie w najnowszych zabawkach i z tego potem wychodzi niezły majstersztyk technologiczny. Może jeszcze tu można włączyć i Epic, jednak wciąż engine Unreal kojarzy mi się z ogromnymi ilościami pożeranej pamięci i z klatkowaniem. Jest on często na topie jeśli chodzi o nowinki technologiczne (UT2007 - szczękę miewam na biurku smilies/wink.gif ), ale jakoś chyba chłopaki nie potrafią wyważyć między ilością nowinek a średnią wydajnością kompów, na których to ma działać.
Chcesz najnowszych i najlepszych szejderków? Idź na scene.org i pooglądaj zwycięskie prace z co bardziej prestiżowych demo party. smilies/wink.gif
krzychdZobacz profil
Poziom ostrzeżenia: 0%
krzychd2006.05.22, 22:39
A nie można swoich racji przedstawić w sposób kulturalny? Plujesz jadem, że trzeba ściereczką z monitora zbierać. Może masz rację a może nie, od tego jest forum dyskusyjne, żeby podyskutować.
*Konto usunięte*2006.05.22, 16:54
Dziwi mnie i przeraża kompletne nie zrozumienie czym jest PPU, dlaczego GPU czy CPU nie mają z nim szans oraz dlaczego PPU nie można (przynajmniej nie teraz) zintegrować z GPU czy chociażby kartą graficzną jako całością.

Część osób jakby wogóle nie myślała. Jest wyraźnie napisane, że np. w Ghost Recon przy użyciu PPU jest w scenie więcej liści, odłamków, generalnie obiektów. Jakim k*** cudem GPU ma policzyć szybciej większą ilość obiektów? Ruszcie do cholery mózgownicami! Wyobraźcie sobie ten sam kod który napisano dla PhysX miał przeliczyć komputer bez tej karty. Nie byłoby spadku o 5-10klatek tylko spadek do 0 i śmierć kliniczna. To naprawdę tak ciężko zrozumieć? Takie to niepojęte?

Kilka osób proponuje integrację z kartą graficzną - nie chcę w komputerze karty długości 40cm lub też wielkości płyty głównej. Może ktoś narysuje mi rozmieszczenie tych wszystkich elementów na jednej płytce?

Ktoś inny znowu z utęsknieniem czeka na rozwiązania Nvidia i ATi. Miałem okazję widzieć pokaz tej "fizyki" według Nvidia i tylko pusty śmiech na sali. To chyba oczywiste, że procesor zaprojektowany do obliczeń graficznych to zero w porównaniu z PPU (który z myślą o fizyce był stworzony) jeśli idzie o obliczenia fizyczne.

Oczywiście karta mogła być na PCI-E x1 bo rzeczywiście te gniazda się marnują. Natomiast przepustowość PCI jest wystarczająca jeśli idzie o strumień danych (jak wynika z wypowiedzi przedstawiciela firmy AGEIA). Być może to tylko kwestia niedalekiej przyszłości.

Ja osobiście bardzo się cieszę, że w końcu ktoś pomyślał o fizycznym aspekcie gier, bo jeżeli komuś wystarczy to co było np. w HL2 to nie mam pytań.

Czepiać powinniśmy się programistów, którzy nie wykorzystują tego potencjału i nie mówię tu tylko o fizyce ale i o grafice. Ciągle nowe możliwości ze strony sprzętu a programiści jakby żeli w swoim świecie. Karty graficzne z SM3.0 są na rynku juz wystarczająco długo a jakoś cudów jeszcze nikt z tego nie wyciągnął. To, że póki co taki Ghost Rekon daje "jedynie więcej drzazg i liści" nie jest winą karty PhysX tylko programistów odpowiedzialnych za grę.
Dostali wspaniałe narzędzie ale to narzędzie nie napisze za nich kodu.

Oczywiście świetną sprawą byłoby wsparcie ze strony producentów oprogramowania 3D/CAD. Kto wie, może to też kwestia niedalekiej przyszłości.
*Konto usunięte*2006.05.20, 12:53
Jestem w stanie przeżyć spadek 5-10fps ów tak by było te 27-35 i wydać nawet tego 1K jak zobaczę wodę ogień i dym jak na tych filmikach !!! http://personal.inet.fi/atk/kjh2348fs/ageia_physx.html

Poza tym podchodzę to tego produktu optymistycznie pomimo całkowitego braku wsparcia ze strony producentów gier i ogromnej porażki na starcie. (szkoda że nie zrobili porządnego TECH-DEMA takiego jak mają ATI i NV przy okazji nowego "dziecka")

ps. Czekam !!!
LeonidasZobacz profil
Poziom ostrzeżenia: 0%
Leonidas2006.05.19, 22:51
Gdybym wywalił 1000 PLN za ten sprzęt też bym chciał się jakoś poprawić swoje samopoczucie i wmówić samemu sobie, że nie wywaliłem kasy w błoto.
Na szczęście ja i 99,99% ludzi w Polsce będziemy czekać i obserwować co wyniknie z tego całego PPU i jeżeli żeczywiście pokażą się gry udowadniające, że warto to kupić to pewnie skuszę się gdy cena będzie rozsądna.

Narazie pozostaje czekać i uważnie obserwować .......
SuLac0Zobacz profil
Poziom ostrzeżenia: 0%
SuLac02006.05.18, 20:23
CYTAT(Leonidas @ 18 maja 2006, 18:22) <{POST_SNAPBACK}>
Nie. Nie ma ani flagi ani płynów.

wiec gdzie ta "identycznosc"?

CYTAT

w pierwszym tescie mogli zamiast PPU dac gosciowi do testowania granie z fsss i bez, z aniso i bez, efekt byly imho identyczny. czy to oznacza, ze niepotrzebie przeplacamy za te "dodatki" w przypadku kart graficznych? imho kompletna bzdura.
drugi test - wytykaja bledy silnika dema, a zwalaja to na PPU. przeciez bez PPU fizyka, zachowanie obiektow w tym demie jest identycznie. nie tutaj wykorzystano PPU. kolejna bzdura.
LeonidasZobacz profil
Poziom ostrzeżenia: 0%
Leonidas2006.05.18, 18:22
CYTAT(SuLac0 @ 18 maja 2006, 09:50) <{POST_SNAPBACK}>
czy w wersji bez PhysX miales "plyny" i flage/plachte?


Nie. Nie ma ani flagi ani płynów.

Zerknijcie jednak na to:
http://www.benchmark.pl/artykuly/rzut_okie...X/strona-1.html
MacBirdieZobacz profil
Poziom ostrzeżenia: 0%
MacBirdie2006.05.18, 17:30
W recenzji PhysX na nVISION można sobie co nieco obejrzeć.
krzychdZobacz profil
Poziom ostrzeżenia: 0%
krzychd2006.05.18, 17:01
CYTAT(El_liero @ 18 maja 2006, 14:06) <{POST_SNAPBACK}>
kiedy te filmiki pokazujace mozliwosci karty beda ?


Dolicz sobie ok 2 tygodnie do daty premiery artukułu. Jeśli wogóle....
El_lieroZobacz profil
Poziom ostrzeżenia: 0%
El_liero2006.05.18, 14:06
kiedy te filmiki pokazujace mozliwosci karty beda ?
BulskyZobacz profil
Poziom ostrzeżenia: 0%
Bulsky2006.05.18, 12:24
CYTAT(Leonidas @ 17 maja 2006, 20:10) <{POST_SNAPBACK}>
Niektórych chyba nie da się przekonać. Jeżeli gra Cellfactor chodzi z wszystkimi detalami 100% identycznymi zarówno na kompie posiadającym ten cud techniki jak i bez niego a różnica w prędkości wynosi tylko ok 30% to oznacza to, że przy wykorzystaniu drugiego rdzenia gra ta chodziłaby szybciej na kompie 2-rdzeniowym bez PhysX niż na kompie 1 rdzeniowym + PhysX !!!!


no dobrze, ale moze ktos masz jakiego x2 lub kompatybilny proc i sprawdzilby jak sie ta gra sprawuje na jego konfigu (realnym)??
SuLac0Zobacz profil
Poziom ostrzeżenia: 0%
SuLac02006.05.18, 09:50
CYTAT(Leonidas @ 18 maja 2006, 09:17) <{POST_SNAPBACK}>
Opieram się na ocenie testującego, który wyraźnie napisał że nie ma różnicy oraz na własnych wrażeniach z uruchomionej wersji bez PhysX.

czy w wersji bez PhysX miales "plyny" i flage/plachte?

CYTAT
Uważam, że test ten jest w tej chwili najbardziej rzetelnym i obiektywnym testem dotyczącym tej karty (przetestowano nie tylko cellfactor i Ghost Recon ale również inne aplikacje wspomagane przez PhysX)

3dm06 - wykorzystuje tylko biblioteke Agei do obliczen fizyki w testach CPU, ale tylko na poziomie software (CPU), a nie hardware (PPU)
Rise of Legends - brak wsparcia dla PPU w obecnej wersji, dopiero patch ma to zmienic
LeonidasZobacz profil
Poziom ostrzeżenia: 0%
Leonidas2006.05.18, 09:17
Opieram się na ocenie testującego, który wyraźnie napisał że nie ma różnicy oraz na własnych wrażeniach z uruchomionej wersji bez PhysX.

Uważam, że test ten jest w tej chwili najbardziej rzetelnym i obiektywnym testem dotyczącym tej karty (przetestowano nie tylko cellfactor i Ghost Recon ale również inne aplikacje wspomagane przez PhysX)
Funkcja komentowania została wyłączona. Do dyskusji zapraszamy na forum.