Niektórych chyba nie da się przekonać. Jeżeli gra Cellfactor chodzi z wszystkimi detalami 100% identycznymi zarówno na kompie posiadającym ten cud techniki jak i bez niego a różnica w prędkości wynosi tylko ok 30% to oznacza to, że przy wykorzystaniu drugiego rdzenia gra ta chodziłaby szybciej na kompie 2-rdzeniowym bez PhysX niż na kompie 1 rdzeniowym + PhysX !!!!
skąd to wiesz, bo na egiełdzie, z działania bez agei widze tylko jeden screen, przy strzelaniu w niebo czy co to jest, naprawdę niewiele widać, chyba że tam są jeszcze jakieś inne screeny, ale nie zauważyłem jak widziałeś więcej mowiące zrzuty ekranu, to z chęcią pooglądam i pooceniam
ale physx nie jest dla zwiększania ilości klatek, tylko dla dodania większej ilości efektow bardziej realistycznych mów o ilości klatek jeśli komputer bez physx będzie umiał pociągnąć grę z taką samą ilością efektów i o takiej samej jakości przy tej samej ilości klatek, co komputer z physx to jest istotne
Niektórych chyba nie da się przekonać. Jeżeli gra Cellfactor chodzi z wszystkimi detalami 100% identycznymi zarówno na kompie posiadającym ten cud techniki jak i bez niego a różnica w prędkości wynosi tylko ok 30% to oznacza to, że przy wykorzystaniu drugiego rdzenia gra ta chodziłaby szybciej na kompie 2-rdzeniowym bez PhysX niż na kompie 1 rdzeniowym + PhysX !!!!
Myślę że opisane na 9-tej stronie artykułu na egielda.pl demo technologiczne AGEIA PhysX Hardware Demo najlepiej podsumowuje sens kupowania tej karty. Jest to bardzo proste demo, rozbijanie stosu małych sześcianów. Bez PhysX uzyskujemy od 60 do 80 kl./sek. przy 100% obciążeniu procesora Z PhysX od 90 do 120 kl./sek. przy obciążeniu CPU od 70% do 90% Moim zdaniem zaprzęgając dwa rdzenie do tej roboty można by uzyskać w tym demie ten sam efekt co za pomocą PhysX (gdyby programiści to umożliwili). Wydaje mi się że ten PhysX wcale nie jest taki potężny, w końcu jest taktowany dość niskim zegarem w porównaniu z CPU. The Unofficial AGEIA PhysX PPU Links & Info Page
Z testów tam przeprowadzonych jasno wynika, że PxysX nie liczy całości efektów fizycznych w demie cellfactor - mimo wszystko coś jednak liczy bo jest różnica w ilości klatek z kartą i bez karty. Jednakże okazuje się, że szybszy procesor bez PhysX daje więcej klatek niż słabszy procesor + PhysX - chyba jednak spodziewaliśmy się czegoś innego po tej karcie.
ale physx nie jest dla zwiększania ilości klatek, tylko dla dodania większej ilości efektow bardziej realistycznych mów o ilości klatek jeśli komputer bez physx będzie umiał pociągnąć grę z taką samą ilością efektów i o takiej samej jakości przy tej samej ilości klatek, co komputer z physx to jest istotne
A ja jestem ciekaw obciążenia CPU w GRAW bez PhysX i z PhysX. Wydaje mi się jednak, że Ghost Recon akurat nie jest dobrym przykładem na wykorzystanie sprzętowej fizyki, bo jest ona w tej grze tylko jako ulepszacz i nie ma jej tak strasznie dużo. Ciekaw jestem jeszcze bardziej, jak by się miała wydajność Cellfactora, gdyby był odpalony bez akceleracji fizyki i z takim samym poziomem detali.
Bardzo ciekawa sprawa. Jeden z adminów zmodyfikował mój post na poprzedniej stronie a konkretnie usunął odnośnik do testu PhysX na stronie www.egielda.com.pl bez podania jakiegokolwiek wyjaśnienia:
Pewnie zaraz i ten skrót zniknie bez podania przyczyny ale co mi tam. Z testów tam przeprowadzonych jasno wynika, że PxysX nie liczy całości efektów fizycznych w demie cellfactor - mimo wszystko coś jednak liczy bo jest różnica w ilości klatek z kartą i bez karty. Jednakże okazuje się, że szybszy procesor bez PhysX daje więcej klatek niż słabszy procesor + PhysX - chyba jednak spodziewaliśmy się czegoś innego po tej karcie.
Zobaczymy co wymysla ATi i nVidia. Zreszta uwaza ze Agena (czy jak tam oni sie psiza) popelnia straszny blad - gdyby ta karta kosztowala 100-200 zl to w ciagu roku byli by monopolistami i w/w ATi czy nVidia mogly by im "skoczyc". Jak tam mozna - maja gotowy uklad, sa pierwsi i w ogole z tego nei korzystaja.
Układy nie są prokukowane za darmo. Do tego muszą się zwrócić przynajmniej koszty badań i opracowania układu. Myślę, że gdyby mogli, to by sprzedawali za 200 zł.
FPS'y spadly bo jak napisal kowboy, bo bylo wiecej efektow (liscie, odlamki zderzajace sie ze soba) a te efekty musiala tak czy tak wyswietlic karta graficzna, ot dlaczego liczba klatek jest mniejsza. Przy grze gdzie w trybie sprzetowym i programowym bylo by tyle samo obliczen fizycznych pewnie roznica bylaby na niekorzysc emulowania. Ogolnie mysle jednak ze ta karta sie nie przyjmie i producenci kart graficznych przejma paleczke - moze to nie jest ich bezposrednia konkurencja ale jak widza mozliwosc zarobienia kilku dolarkow wiecej to pewnie jej nie przepuszcza
Ty jednak Poke masz problemy z wyciaganiem prostych wnioskow oraz czytaniem ze zrozumieniem, jakbys dokladnie artykul przeczytal to bys zauwazyl, ze po wylaczeniu sprzetowej obslugi fizyki, bylo mniej efektow typu uderzajace o siebie odlamki czy mniej lisci na drzewach - to prowadzi tak czy tak do mniejszego obciazenia karty graficznej i wzrostu liczby fps. Cytuje:
CYTAT
Generalnie także całkiem dobrze - brakuje tych małych smaczków, ale z drugiej strony ich brak w ogóle nie rzuca się w oczy. Strzelając do wspomnianego już asfaltu również zobaczymy latające kamienie i odłamki, ale nie będą one na siebie reagowały - tzn. nic się nie stanie, jeżeli np. zderzą się. Przy dywersji na drzewo , spada znacznie mniej liści i nie widać przelatujących na wszystkie strony drzazg.
Fajnie jakby zrobili testy w CellFactor z wylaczonym akceleratorem fizyki, wtedy byloby wiadomo naprawde jaka jest roznica.
Zalecam wyłączenie wszystkich efektów podczas grania, moze nie bedzie nazbyt ładnie, ale za to ile klatek/sek...
Tak, spadek wydajnosci przy karcie za 1.200 zl i jak, cytuje z pamieci, "roznicy w generowanym obrazie wiekszej nie ma". Piekne. Kup sobie PhysX i wstaw w sygnaturke - bedzie cool.
Za tyle $ nie biore w ogole pod uwage spadku wydajnosci. W OGOLE. Nie interesuje mnie jak to bedzie zrealizowane, ja nie jestem od tego, ja jestem od placenia, a nie wymyslania architektury ukladu i jego wspolpraca z grafika.
Zalecam wyłączenie wszystkich efektów podczas grania, moze nie bedzie nazbyt ładnie, ale za to ile klatek/sek...
Tylko, ze niektorych rzeczy przeskoczyc sie po prostu nie da, jesli obraz ma byc badziej szczegolowy i zlozony, to musi to byc okupione nawet minimalnym spadkiem wydajnosci i ilosci klatek.
Bez PPU spadek pewnie wynioslby ze 20-30 klatek (strzelam w ciemno ) bo obliczeniami fizyki musialby zajac sie CPU. Tych kilka klatek nie robi wiec wiekszej roznicy, tym bardziej, ze szczegolowosc grafiki wzrasta znaczaco. ps. Swoja droga, tez bym tego nie kupil jak na razie, to dla mnie, kompletnie niedopracowany, zbedny i zbyt drogi bajer
Zobaczymy co wymysla ATi i nVidia. Zreszta uwaza ze Agena (czy jak tam oni sie psiza) popelnia straszny blad - gdyby ta karta kosztowala 100-200 zl to w ciagu roku byli by monopolistami i w/w ATi czy nVidia mogly by im "skoczyc". Jak tam mozna - maja gotowy uklad, sa pierwsi i w ogole z tego nei korzystaja.
Za tyle $ nie biore w ogole pod uwage spadku wydajnosci. W OGOLE. Nie interesuje mnie jak to bedzie zrealizowane, ja nie jestem od tego, ja jestem od placenia, a nie wymyslania architektury ukladu i jego wspolpraca z grafika.
Pewno, masz do tego pelne prawo jako kupujacy
Tylko, ze niektorych rzeczy przeskoczyc sie po prostu nie da, jesli obraz ma byc badziej szczegolowy i zlozony, to musi to byc okupione nawet minimalnym spadkiem wydajnosci i ilosci klatek.
Bez PPU spadek pewnie wynioslby ze 20-30 klatek (strzelam w ciemno ) bo obliczeniami fizyki musialby zajac sie CPU. Tych kilka klatek nie robi wiec wiekszej roznicy, tym bardziej, ze szczegolowosc grafiki wzrasta znaczaco.
ps. Swoja droga, tez bym tego nie kupil jak na razie, to dla mnie, kompletnie niedopracowany, zbedny i zbyt drogi bajer
Spadek wydajnosci no naprawde przogromny z 61 na 57 klatek... normalnie slideshow i grac sie nie da Mam wrazenie, ze przy takim rozwiazaniu PPU spadek wydajnosci zawsze bedzie mial miejsce, mniejszy czy wiekszy, ale bedzie... Po prostu karta grafiki ma wiecej materialu do wyswietlenia
Za tyle $ nie biore w ogole pod uwage spadku wydajnosci. W OGOLE. Nie interesuje mnie jak to bedzie zrealizowane, ja nie jestem od tego, ja jestem od placenia, a nie wymyslania architektury ukladu i jego wspolpraca z grafika.
Na szczescie nie wszyscy patrza na wypociny marketingowcow. Nie, kompletnie nie rozumiem. Wczoraj kupilem komputer. Ta karta jest warta 200 zl max, przypomina mi pierwsze S3Virge - bez nich szybciej dzialaly gry, ale za to z nimi - woooow - 16bitow w 800x600 - co prawda 8 fps, ale 16bitow. Smiech na sali.
Wiec spodziewasz sie ze karta VGA wyswietlajac wiecej elementow na ekranie obliczanych przez PPU, nie bedzie miala lekkiego spadku wydajnosci FPS(~4)?
Zastanow sie chwile zanim cos napiszesz...
ASUS oraz Ageia dostarczyli nowa technologie na rynek i teraz bedzie mozna sledzic jej dalszy rozwoj.
Nie, kompletnie nie rozumiem. Wczoraj kupilem komputer. Ta karta jest warta 200 zl max, przypomina mi pierwsze S3Virge - bez nich szybciej dzialaly gry, ale za to z nimi - woooow - 16bitow w 800x600 - co prawda 8 fps, ale 16bitow. Smiech na sali.
Piszesz, jakbys rzeczwiscie wczoraj kupil
Spadek wydajnosci no naprawde przogromny z 61 na 57 klatek... normalnie slideshow i grac sie nie da
Mam wrazenie, ze przy takim rozwiazaniu PPU spadek wydajnosci zawsze bedzie mial miejsce, mniejszy czy wiekszy, ale bedzie... Po prostu karta grafiki ma wiecej materialu do wyswietlenia
Moim zdaniem powinni już robić płyty bez PCI. Może wówczas producenci kart by zrozumieli, że czas już przejść na PCIExpress. Podobnie nie powinno być na płytach złącz ATA, co by producenci napędó optycznych zrozumieli, że od 2 lat powinni już robić napędy SATA.
A tak w PCI to jest badziew a nie nowoczesna karta.
Na szczescie nie wszyscy patrza na wypociny marketingowcow.
Sprawiasz wrazenie, jakbys nie za bardzo rozumial o co chodzi w calej tej zabawie z PPU Moze przeczytaj najpierw niektore komentarze... albo artykul...
Nie, kompletnie nie rozumiem. Wczoraj kupilem komputer. Ta karta jest warta 200 zl max, przypomina mi pierwsze S3Virge - bez nich szybciej dzialaly gry, ale za to z nimi - woooow - 16bitow w 800x600 - co prawda 8 fps, ale 16bitow. Smiech na sali.
Hehe - coz za szok - GR - bez karty az o 4FPS mniej! Toz sie zalamac mozna. Muze kupic - 4 FPS za jedyne 1200 zl piechota nei chodzi!
LOL?
Sprawiasz wrazenie, jakbys nie za bardzo rozumial o co chodzi w calej tej zabawie z PPU Moze przeczytaj najpierw niektore komentarze... albo artykul...
przeczytałem w cda wtępny opis Crysis i dowiedziałem się że gra wyjdzie na dx9 bo niebędą czekać na viste czyli spoks i nieprzewidują obsługi PhysX a jak taka gra która będzie wzorem dla fpp na najbilższe 2 lata nie biędzie kożystać z tej technologi to ja się pytam poco lepiej se 2 gf7600 kupie i sli walnie niż to biadziewie
skąd to wiesz, bo na egiełdzie, z działania bez agei widze tylko jeden screen, przy strzelaniu w niebo czy co to jest, naprawdę niewiele widać, chyba że tam są jeszcze jakieś inne screeny, ale nie zauważyłem
jak widziałeś więcej mowiące zrzuty ekranu, to z chęcią pooglądam i pooceniam
mów o ilości klatek
jeśli komputer bez physx będzie umiał pociągnąć grę z taką samą ilością efektów i o takiej samej jakości przy tej samej ilości klatek, co komputer z physx
to jest istotne
Niektórych chyba nie da się przekonać. Jeżeli gra Cellfactor chodzi z wszystkimi detalami 100% identycznymi zarówno na kompie posiadającym ten cud techniki jak i bez niego a różnica w prędkości wynosi tylko ok 30% to oznacza to, że przy wykorzystaniu drugiego rdzenia gra ta chodziłaby szybciej na kompie 2-rdzeniowym bez PhysX niż na kompie 1 rdzeniowym + PhysX !!!!
Jest to bardzo proste demo, rozbijanie stosu małych sześcianów.
Bez PhysX uzyskujemy od 60 do 80 kl./sek. przy 100% obciążeniu procesora
Z PhysX od 90 do 120 kl./sek. przy obciążeniu CPU od 70% do 90%
Moim zdaniem zaprzęgając dwa rdzenie do tej roboty można by uzyskać w tym demie ten sam efekt co za pomocą PhysX (gdyby programiści to umożliwili).
Wydaje mi się że ten PhysX wcale nie jest taki potężny, w końcu jest taktowany dość niskim zegarem w porównaniu z CPU.
The Unofficial AGEIA PhysX PPU Links & Info Page
mów o ilości klatek
jeśli komputer bez physx będzie umiał pociągnąć grę z taką samą ilością efektów i o takiej samej jakości przy tej samej ilości klatek, co komputer z physx
to jest istotne
Wydaje mi się jednak, że Ghost Recon akurat nie jest dobrym przykładem na wykorzystanie sprzętowej fizyki, bo jest ona w tej grze tylko jako ulepszacz i nie ma jej tak strasznie dużo. Ciekaw jestem jeszcze bardziej, jak by się miała wydajność Cellfactora, gdyby był odpalony bez akceleracji fizyki i z takim samym poziomem detali.
http://www.egielda.com.pl/?str=art&id=1238-4
Pewnie zaraz i ten skrót zniknie bez podania przyczyny ale co mi tam.
Z testów tam przeprowadzonych jasno wynika, że PxysX nie liczy całości efektów fizycznych w demie cellfactor - mimo wszystko coś jednak liczy bo jest różnica w ilości klatek z kartą i bez karty. Jednakże okazuje się, że szybszy procesor bez PhysX daje więcej klatek niż słabszy procesor + PhysX - chyba jednak spodziewaliśmy się czegoś innego po tej karcie.
Układy nie są prokukowane za darmo. Do tego muszą się zwrócić przynajmniej koszty badań i opracowania układu. Myślę, że gdyby mogli, to by sprzedawali za 200 zł.
Ty jednak Poke masz problemy z wyciaganiem prostych wnioskow oraz czytaniem ze zrozumieniem, jakbys dokladnie artykul przeczytal to bys zauwazyl, ze po wylaczeniu sprzetowej obslugi fizyki, bylo mniej efektow typu uderzajace o siebie odlamki czy mniej lisci na drzewach - to prowadzi tak czy tak do mniejszego obciazenia karty graficznej i wzrostu liczby fps. Cytuje:
Fajnie jakby zrobili testy w CellFactor z wylaczonym akceleratorem fizyki, wtedy byloby wiadomo naprawde jaka jest roznica.
Tak, spadek wydajnosci przy karcie za 1.200 zl i jak, cytuje z pamieci, "roznicy w generowanym obrazie wiekszej nie ma". Piekne. Kup sobie PhysX i wstaw w sygnaturke - bedzie cool.
Zalecam wyłączenie wszystkich efektów podczas grania, moze nie bedzie nazbyt ładnie, ale za to ile klatek/sek...
Tylko, ze niektorych rzeczy przeskoczyc sie po prostu nie da, jesli obraz ma byc badziej szczegolowy i zlozony, to musi to byc okupione nawet minimalnym spadkiem wydajnosci i ilosci klatek.
Bez PPU spadek pewnie wynioslby ze 20-30 klatek (strzelam w ciemno
ps. Swoja droga, tez bym tego nie kupil
Zobaczymy co wymysla ATi i nVidia. Zreszta uwaza ze Agena (czy jak tam oni sie psiza) popelnia straszny blad - gdyby ta karta kosztowala 100-200 zl to w ciagu roku byli by monopolistami i w/w ATi czy nVidia mogly by im "skoczyc". Jak tam mozna - maja gotowy uklad, sa pierwsi i w ogole z tego nei korzystaja.
Pewno, masz do tego pelne prawo jako kupujacy
Tylko, ze niektorych rzeczy przeskoczyc sie po prostu nie da, jesli obraz ma byc badziej szczegolowy i zlozony, to musi to byc okupione nawet minimalnym spadkiem wydajnosci i ilosci klatek.
Bez PPU spadek pewnie wynioslby ze 20-30 klatek (strzelam w ciemno
ps. Swoja droga, tez bym tego nie kupil
Spadek wydajnosci no naprawde przogromny z 61 na 57 klatek... normalnie slideshow i grac sie nie da
Mam wrazenie, ze przy takim rozwiazaniu PPU spadek wydajnosci zawsze bedzie mial miejsce, mniejszy czy wiekszy, ale bedzie... Po prostu karta grafiki ma wiecej materialu do wyswietlenia
Za tyle $ nie biore w ogole pod uwage spadku wydajnosci. W OGOLE. Nie interesuje mnie jak to bedzie zrealizowane, ja nie jestem od tego, ja jestem od placenia, a nie wymyslania architektury ukladu i jego wspolpraca z grafika.
Nie, kompletnie nie rozumiem. Wczoraj kupilem komputer. Ta karta jest warta 200 zl max, przypomina mi pierwsze S3Virge - bez nich szybciej dzialaly gry, ale za to z nimi - woooow - 16bitow w 800x600 - co prawda 8 fps, ale 16bitow. Smiech na sali.
Wiec spodziewasz sie ze karta VGA wyswietlajac wiecej elementow na ekranie obliczanych przez PPU, nie bedzie miala lekkiego spadku wydajnosci FPS(~4)?
Zastanow sie chwile zanim cos napiszesz...
ASUS oraz Ageia dostarczyli nowa technologie na rynek i teraz bedzie mozna sledzic jej dalszy rozwoj.
Piszesz, jakbys rzeczwiscie wczoraj kupil
Spadek wydajnosci no naprawde przogromny z 61 na 57 klatek... normalnie slideshow i grac sie nie da
Mam wrazenie, ze przy takim rozwiazaniu PPU spadek wydajnosci zawsze bedzie mial miejsce, mniejszy czy wiekszy, ale bedzie... Po prostu karta grafiki ma wiecej materialu do wyswietlenia
A tak w PCI to jest badziew a nie nowoczesna karta.
Na szczescie nie wszyscy patrza na wypociny marketingowcow.
Sprawiasz wrazenie, jakbys nie za bardzo rozumial o co chodzi w calej tej zabawie z PPU
Nie, kompletnie nie rozumiem. Wczoraj kupilem komputer. Ta karta jest warta 200 zl max, przypomina mi pierwsze S3Virge - bez nich szybciej dzialaly gry, ale za to z nimi - woooow - 16bitow w 800x600 - co prawda 8 fps, ale 16bitow. Smiech na sali.
LOL?
Sprawiasz wrazenie, jakbys nie za bardzo rozumial o co chodzi w calej tej zabawie z PPU
chciałeś - masz