Uruchomiłem sobie gre Jedi Academy z ograniczeniem 25 fpsów gra była ciutekjakby wolniejsza, potem wskoczyłem bez ogranicznika (średnio 600 fpsów) gra widocznie przyśpieszyłą, właczyłem znowu na 25 i po czasie włączyłem sobie 35 fpsów, fakt jakoś tak lepiej niż 25, ale już miedzy 28 a np 38 róznicy nie widzialem.
No i racja, ale to też zależy od gry. Generalnie powyżej 35 fps można już mówić o pełnej płynności i komforcie gry pod warunkiem, że fps nigdy nie spada poniżej tej wartości. Lepiej mieć 60 fps i spory zapas bo wtedy nawet prawie 2 krotny spadek nie jest odczuwalny. Jest też druga sprawa. Jeśli biernie się przyglądamy animacji to nie przeszkadza nam 25 fps, ale jak gramy to i owszem.
Kup sobie słownik poprawnej polszczyzny laicki ignorancie a nie prościej <laiku> . Dziś w szkole juz nie uczą tak jak kiedyś
Zawsze można się pomylić, nie wpadłeś na to? Pisałem to 5 minut więc wiesz... Jak jesteś taki mądry i oczytany to czemu sam czegoś nie napiszesz tylko zamiast tego wypisujesz te żałosne wypociny w postaci szczępków zdań bez składu i ładu? Gdzie więcej jest "lol'i" i uśmieszków niż słów. Z braku merytorycznych argumentów przyczepiłeś się do błędu językowego. Typowe. Widać, że jedyne co w życiu "popełniłeś" to "ambitne" wypowiedzi na GG albo czatach i sma'ach. Coś jeszcze źle napisałem? Jak tak to niech mnię pan profesor poprawi.
Mi się podoba... kiedyś już gdzieś czytałem o tym PhysX lecz muszę powiedzieć, że wystarczy jakiś filmik obejrzeć to zachowania przedmiotów jest naprawdę lepsza.
Jeśli się przyjmie, to znów programiści będą mieli ułatwioną sprawę. Nie będzie trzeba pisać od nowa zasad fizyki, tylko implementować ustalone już biblioteki do swoich programów.
W sumie jest to trochę ciekawsza wizja przyszłości PCtów niż ciągły wzrost Mhz.
"PS. jeszcze dziś postaramy się uzupełnić artykuł o filmy prezentujące PhysX w akcji."
jak tylko Piła albo ktos inny wklei te filmiki to najwieksza czcionka jaka jest na tym forum niech napisze ze juz jest ... bardzo jestem ciekaw co tak naprawde potrafi ten akcelerator
Czyżbyś się poczuł urażony? Ja pisałem o ignorantach a nie konkretnie o Tobie więc co się burzysz? Również nie cytowałem Twoich wypowiedzi. Taka jest prawda i tyle więc jeśli nie czujesz się ignorantem to nie szczekaj. Nawiasem mówiąc, ciekawe ile osób na formum zgodzi się z moją opinią, a ile z Twoją...
ja nie dawałem żadnej teorii, to pierwsze, tylko dla porównania dałem przykładowe ilości klatek, nie chodziło mi o samo rozważanie jakości 25 i 50 klatek, chodziło mi o użalanie się nad poświęceniem kilku klatek, w zamian za uzupełnienie animacji o rzeczywistą grafikę. i poczułem się urażony, bo rozmowa o ilości klatek odemnie sięwzięła, tylko szkoda że niektórzy nie umią dokładnie czytać tak więc powtórzę jeszce raz, nie o samą jakość mi chodziło ale o bezsensowne twierdzenie że szkoda iluś tam klatek przy wydajności obecnych kart graficznych. i to jest moja opinia
Uruchomiłem sobie gre Jedi Academy z ograniczeniem 25 fpsów gra była ciutekjakby wolniejsza, potem wskoczyłem bez ogranicznika (średnio 600 fpsów) gra widocznie przyśpieszyłą, właczyłem znowu na 25 i po czasie włączyłem sobie 35 fpsów, fakt jakoś tak lepiej niż 25, ale już miedzy 28 a np 38 róznicy nie widzialem.
Tak oftopicznie napomknę tylko, ostatnio wzialem w lapki jakis stary numer cd-action... otworzylem na tescie jakiejs grafiki... pomijajac fakt, ze przez tych pare lat poziom merytorycznych nic a nic sie nie zmienil, to cena 1300zl za GF 256 zrywa czape a to tylko, a moze az, szesc lat minelo...
Jeśli jakiś ignorant dalej twierdzi, że nie ma różnicy między 25 a 50 fps to polecam odpalenie GTA San Andreas z ogranicznikiem klatek (25 fps) a potem wyłączenie go w trakcie gry (pod warunkiem, że sprzęt wyciągnie wtedy conajmniej 35 fps) po czym po 5 minutach gry włączenia ogranicznika z powrotem. Po takim teście tylko będąc złośliwym prześmiewcą można twierdzić, że nie ma różnicy, a Ci co ją widzą są "nawiedzeni". Przy 25 fps gra nie jest przyjemna i do grania w nią trzeba się najzwyczajniej zmuszać. Jeszcze w RTS'ach to nie przeszkadza, ale w FPS'ach i innych tak. Tak samo jak można nie widzieć różnicy między 60 a 85 Hz na CRT'ku? Są też tacy, którzy nie widzą specjalnej róznicy między 640x480 Medium, a 104x768 High AAx4 Anizo 8x. Ale jak się ma TNT2 albo FX 5200 to trzeba pier... żeby usprawiedliwić posiadanie takiego g... brakiem potrzeby, a nie tak naprawdę kasy! Z drugiej strony też nie ma co przesadzać - jak się ma tyle fps co odświeżanie ekranu (vsync) to jest już pełnia szczęscia - po co nam 200? Co do PhysX'a to czego się spodziewaliście? Chcieliście rewelacji po 1-szym na rynku, pionierskim produkcie? On wyznacza dopiero kierunek rozwoju i efektów możemy oczekiwać dopiero za kilka lat. Wszystko kiedyś raczkowało i było bardzo niedorobione. Na tym polega ewolucja. I nie mówcie, że za drogie bo za 200zł byście tego też nie kupili. Śmieszy mnie też to gadanie "Czemu nie zrobili w 90nm tylko w 130nm? Jak to jest takie proste to zróbcie. Nie pamiętacie ile problemów zawsze było ze zmniejszeniem procesu technologicznego? Nie pamiętacie jak się podniecaliście jak wprowadzili 0,18um? Jakie to było wówczas postępowe? Spokojnie, nie od razu Kraków zbudowano. Czy np pierwsza na rynku nagrywarka CD lub DVD była choć trochę sensowna? Nie bo nagrywała płytę pół godziny z tym, że niekoniecznie. Pierwsze LCD były tak beznadziejne, że średni CRT był o klasę lepszy. Jedyną ich zaletą byłu gabaryty - zresztą tak jest do dziś w przypadku taniego syfu dla laików i ignorantów, którym się wydaje, że jak ma LCD 19" z Tesco za 699 zł to jest lepszy. Idąc dalej tokiem rozumowania niektórych z Was dochodzę do wniosku, że po co było wprowadzać jakieś "syfiaste" Voodoo? Trzeba było od razu zapodać Radka 9700 PRO i git. Albo nie, po co się cackać - od razu X1900XTX i już. Napewno za 10 lat przeczytamy na Labie albo Benchmarku o historii procesorów fizyki i z łezką w oku wspomnimy "stare poczciwe" modele i będziemy się wkurzać, że wtedy nam wystarczały jak niegdysiejsze Voodoo, a teraz musimy wydać 2 bagsy na nowy sprzęt bo ten co mamy nas nie zadowala.
Lol, spokojnie - przecież to dopiero pierwsza wersja PPU - poczekajmy kilkanaście miesięcy aż technologia rozwinie się bardziej. Sytuacja jak z GPU - pierwsze też nie wyrózniały się niczym specjalnym i wówczas również mówiono o tym, że to nie GPU a CPU zajmuje się najwazniejzym...a dziś ? Granie bez karty graficznej mija się z celem.
wątpię abyś rozróżniał róznice między 25 a 50 klatek, tak więc odpuszczenie kilku.. nastu nawet nie jest jakąś rzeczywistą stratą dla tych którzy mają karty tak wydajne, by można grac z taką liczbą klatek kolejne urządzenie dające kolejne efekty, w zamian za bezużyteczne klatki, będzie dobrą zamianą jak już kiedyś chyba pisałem, nie dałbym za tą jak i inną kartę 1tysiaka, ale jak bym miał wydac tysiaka na jakąś graficzną to i ta by mnie kusiała, bo jakości na pewno dodaje ale lepiej jakby wylądowało na jednej karcie z gpu
Czlowiek spokojnie rozroznia gdzies tak do okolo 72-73 klatek na sek. A taka duza roznice pomiedzy 25-50 to widac jak na dloni... Jako ciekawostke podam ze dlatego w cs'ie domyslny ogranicznik klatek jest 72-74 (dokladnie nie pamietam).
Oczywiscie zdarzaja sie osobniki ktore rozroznia wiecej, ale mysle ze wiecej niz 100 fps to nikomu nie trzeba
Nie wiem czy widzieliście test PhysX w demie CellFactor na procesorach o różnej prędkości. Ja widziałem porównanie między Athlonem64 przy 2750 mhz i 1750 mhz i różnica jest podstawowa. Na szybszym procku jest 27 FPS a na słabszym 18 FPS. Wynika z tego, że szybkość tej gry jest wprost proporcjonalna do szybkoścu CPU. W takim razie niech mi ktoś wyjaśni czym zajmuje się PhysX skoro przy szybszym procku fizyka jest liczona szybciej ? Odpowiedź się nasuwa sama - niczym a fizykę liczy CPU. Jeżeli ktoś jest w stanie zinterpretować te wyniki inaczej to bardzo proszę - chętnie przeczytam.
Wydaje mi sie, ze procesor pelni role nadzorcy i posrednika w wymianie danych miedzy GPU a PPU, do tego ma jeszcze pewnie swoje obliczenia do roboty. Dlatego wzrost wydajnosci ladnie skaule sie z moca procesora.
Co do przepustowosci lacza, to roznica miedzy pci a pcx moze byc wyraznie zauwazalna. Do przeslania jest przeciez ogromna ilosc danych i wynikow obliczen.
No i na koniec sie potworze... Programisci powinni wreszcie wykorzystac dostepne narzedzia. Zaprządz do roboty oba rdzenie i sensownie podzielic miedzy nie zadania, takze 64 bity moga sie przydac, szczegolnie do dzialan na duzych liczbach.
Akurat pisałem o Cellfactor a nie o GRAW. Gry są łase na moc procka - zgadza się niektóre są - ale wynika to właśnie z tego, że procek musi liczyć fizykę, AI oraz koordynować działania całej reszty sprzętu. Jeżeli w tym demie (Cellfactor) nie ma liczenia AI (załóżmy, że włączamy grę bez botów) to jedyne co pozostaje dla procka to liczenie fizyki i koordynacja pozostałych urządzeń. Gdy w kompie jest PhysX to praktycznie jedynym zajęciem dla procka pozostaje koordynacja działania całego systemu. A nikt mi nie wmówi, że coś takiego obciąża procesor na tyle, że wzrost jego prędkości przekłada się wprost proporcjonalnie na wzrost prędkości gry.
Nie wiem czy widzieliście test PhysX w demie CellFactor na procesorach o różnej prędkości. Ja widziałem porównanie między Athlonem64 przy 2750 mhz i 1750 mhz i różnica jest podstawowa. Na szybszym procku jest 27 FPS a na słabszym 18 FPS. Wynika z tego, że szybkość tej gry jest wprost proporcjonalna do szybkoścu CPU. W takim razie niech mi ktoś wyjaśni czym zajmuje się PhysX skoro przy szybszym procku fizyka jest liczona szybciej ? Odpowiedź się nasuwa sama - niczym a fizykę liczy CPU. Jeżeli ktoś jest w stanie zinterpretować te wyniki inaczej to bardzo proszę - chętnie przeczytam.
graw to akurat kiepski przyklad bo tak skopanej gry dawno nie widzialem gry sa coraz lase na moc procka bo niezaleznie czy z ageia czy bez bedzie uzywany jako cpu czyli jednostka ktora musi wykorzystac obliczenia z ppu dla przeslania ich dalej. Jesli chodzi o grwa to z ageia physx jakosc fizy roznie w porownaniu z software wiecej sie dzieje wiecej obiektow jakie musi wyswietlnic karta i wiecej danych jakie musi przejsc przez proca
coście się tak do tego porównania z voodoo przyczepili?
voodo nie był pierwszym akceleratorem 3d tylko pierwszym który w miarę działał... przed nim były karty jak s3 trio które można było raczej nazwać deakceleratorami...
tu możliwe że jest podobnie i dopiero któraś z kolejnych kart będzie "hitem"...
no chyba że tak jak inni sugerują fizyka zostanie połknięta przez karty graficzne...
Moim zdaniem powinni już robić płyty bez PCI. Może wówczas producenci kart by zrozumieli, że czas już przejść na PCIExpress. Podobnie nie powinno być na płytach złącz ATA, co by producenci napędó optycznych zrozumieli, że od 2 lat powinni już robić napędy SATA.
A tak w PCI to jest badziew a nie nowoczesna karta.
..i z tego samego powodu nadal mamy FLOPa w naszych komputrach..;p
Nie wiem czy widzieliście test PhysX w demie CellFactor na procesorach o różnej prędkości. Ja widziałem porównanie między Athlonem64 przy 2750 mhz i 1750 mhz i różnica jest podstawowa. Na szybszym procku jest 27 FPS a na słabszym 18 FPS. Wynika z tego, że szybkość tej gry jest wprost proporcjonalna do szybkoścu CPU. W takim razie niech mi ktoś wyjaśni czym zajmuje się PhysX skoro przy szybszym procku fizyka jest liczona szybciej ? Odpowiedź się nasuwa sama - niczym a fizykę liczy CPU. Jeżeli ktoś jest w stanie zinterpretować te wyniki inaczej to bardzo proszę - chętnie przeczytam.
Wszyscy jadą po tym, że PhysX jest na starym PCI. I choć jestem w stanie zrozumieć, że stare złącze trochę spowalnia działanie samej karty i nie pozwala wykorzystać jej w pełni, tak argumenta, że zajmują miejsce uważam za zgoła... nieprzemyślane... co by tego dosadniej nie ujmować. Bez urazy.
Szanowni Państwo, zarówno autorzy jak i komentatorzy - 90% płyt głównych ma złącz PCI 3 lub więcej, a PCI-Ex1 jedno, które dodatkowo jest najczęściej położone albo tuż pod albo najlepiej pomiędzy dwoma złączami PCI-Ex16 w przypadku płyt pod SLI czy CrossFire. W dobie chłodzeń GPU zajmujących dodatkowe sloty to po prostu jakaś pomyłka by była robić PhysXa pod PCI-Ex1. Płyty z większą ilością PCI-Ex1 lub z ich rozsądniejszym położeniem to margines niestety nadal. Póki złącze PCI-Ex1 nie stanie się bardziej popularne i nie będą dostepne w większej jak jedno liczbie nie tylko w topowych typach płyt głównych puty stare PCI ma rację bytu.
Jest różnie np. na mojej płycie mam kolejność: 2xPCI-Ex1, PCI-Ex16, 3xPCI i bardziej by mi pasowała karta na PCIEx1
Natomiast to ze wydano kartę na PCI na pewno nie wpływa na wydajnośc. Wszyscy patrzą na to przez perspektywę kart graficznych, ale przecież karta fizyki nie przesyła gigabajtów tekstur tylko wyniki obliczeń, na co duża przepustowośc nie jest potrzebna. Można tu dyskutować jedynie czy jest sens wypuszczać nowe karty na stare złącza, ale myslę że nie wpływa to na wydajność. Pamiętam jak modemy przechodziły z ISA na PCI i jakoś nie spowodowało to zwiększenia ich szybkości
Pewnie żadnego. Gry które ją wykorzystują są i tak wymagające i zwalniają obciążone dodatkową fizyką nawet na nowym sprzęcie, więc na starym w ogóle byłaby padaka pewnie.
chodzilo mi czy bylaby roznica na slabym sprzecie jak po przesiadce z s3 virge dx na voodoo1 w quake2 ale w sumie to mozesz miec racje - sorry nie kapuje dzisiaj za bardzo
No i racja, ale to też zależy od gry. Generalnie powyżej 35 fps można już mówić o pełnej płynności i komforcie gry pod warunkiem, że fps nigdy nie spada poniżej tej wartości. Lepiej mieć 60 fps i spory zapas bo wtedy nawet prawie 2 krotny spadek nie jest odczuwalny. Jest też druga sprawa. Jeśli biernie się przyglądamy animacji to nie przeszkadza nam 25 fps, ale jak gramy to i owszem.
laicki
Zawsze można się pomylić, nie wpadłeś na to? Pisałem to 5 minut więc wiesz... Jak jesteś taki mądry i oczytany to czemu sam czegoś nie napiszesz tylko zamiast tego wypisujesz te żałosne wypociny w postaci szczępków zdań bez składu i ładu? Gdzie więcej jest "lol'i" i uśmieszków niż słów. Z braku merytorycznych argumentów przyczepiłeś się do błędu językowego. Typowe. Widać, że jedyne co w życiu "popełniłeś" to "ambitne" wypowiedzi na GG albo czatach i sma'ach. Coś jeszcze źle napisałem? Jak tak to niech mnię pan profesor poprawi.
Kup sobie słownik poprawnej polszczyzny
laicki
Jeśli się przyjmie, to znów programiści będą mieli ułatwioną sprawę. Nie będzie trzeba pisać od nowa zasad fizyki, tylko implementować ustalone już biblioteki do swoich programów.
W sumie jest to trochę ciekawsza wizja przyszłości PCtów niż ciągły wzrost Mhz.
jak tylko Piła albo ktos inny wklei te filmiki to najwieksza czcionka jaka jest na tym forum niech napisze ze juz jest
ja nie dawałem żadnej teorii, to pierwsze, tylko dla porównania dałem przykładowe ilości klatek, nie chodziło mi o samo rozważanie jakości 25 i 50 klatek, chodziło mi o użalanie się nad poświęceniem kilku klatek, w zamian za uzupełnienie animacji o rzeczywistą grafikę.
i poczułem się urażony, bo rozmowa o ilości klatek odemnie sięwzięła, tylko szkoda że niektórzy nie umią dokładnie czytać
tak więc powtórzę jeszce raz, nie o samą jakość mi chodziło ale o bezsensowne twierdzenie że szkoda iluś tam klatek przy wydajności obecnych kart graficznych.
i to jest moja opinia
specjalisto od ignorantów, doczytaj może o co mi chodziło z tym porównaniem, a potem pisz elaboraty
dla tych którzy mają karty tak wydajne, by można grac z taką liczbą klatek kolejne urządzenie dające kolejne efekty, w zamian za bezużyteczne klatki, będzie dobrą zamianą
jak już kiedyś chyba pisałem, nie dałbym za tą jak i inną kartę 1tysiaka, ale jak bym miał wydac tysiaka na jakąś graficzną to i ta by mnie kusiała, bo jakości na pewno dodaje
ale lepiej jakby wylądowało na jednej karcie z gpu
Czlowiek spokojnie rozroznia gdzies tak do okolo 72-73 klatek na sek. A taka duza roznice pomiedzy 25-50 to widac jak na dloni... Jako ciekawostke podam ze dlatego w cs'ie domyslny ogranicznik klatek jest 72-74 (dokladnie nie pamietam).
Oczywiscie zdarzaja sie osobniki ktore rozroznia wiecej, ale mysle ze wiecej niz 100 fps to nikomu nie trzeba
Wydaje mi sie, ze procesor pelni role nadzorcy i posrednika w wymianie danych miedzy GPU a PPU, do tego ma jeszcze pewnie swoje obliczenia do roboty. Dlatego wzrost wydajnosci ladnie skaule sie z moca procesora.
Co do przepustowosci lacza, to roznica miedzy pci a pcx moze byc wyraznie zauwazalna. Do przeslania jest przeciez ogromna ilosc danych i wynikow obliczen.
No i na koniec sie potworze...
Akurat pisałem o Cellfactor a nie o GRAW.
Gry są łase na moc procka - zgadza się niektóre są - ale wynika to właśnie z tego, że procek musi liczyć fizykę, AI oraz koordynować działania całej reszty sprzętu. Jeżeli w tym demie (Cellfactor) nie ma liczenia AI (załóżmy, że włączamy grę bez botów) to jedyne co pozostaje dla procka to liczenie fizyki i koordynacja pozostałych urządzeń. Gdy w kompie jest PhysX to praktycznie jedynym zajęciem dla procka pozostaje koordynacja działania całego systemu. A nikt mi nie wmówi, że coś takiego obciąża procesor na tyle, że wzrost jego prędkości przekłada się wprost proporcjonalnie na wzrost prędkości gry.
graw to akurat kiepski przyklad bo tak skopanej gry dawno nie widzialem
gry sa coraz lase na moc procka bo niezaleznie czy z ageia czy bez bedzie uzywany jako cpu czyli jednostka ktora musi wykorzystac obliczenia z ppu dla przeslania ich dalej. Jesli chodzi o grwa to z ageia physx jakosc fizy roznie w porownaniu z software wiecej sie dzieje wiecej obiektow jakie musi wyswietlnic karta i wiecej danych jakie musi przejsc przez proca
voodo nie był pierwszym akceleratorem 3d tylko pierwszym który w miarę działał... przed nim były karty jak s3 trio które można było raczej nazwać deakceleratorami...
tu możliwe że jest podobnie i dopiero któraś z kolejnych kart będzie "hitem"...
no chyba że tak jak inni sugerują fizyka zostanie połknięta przez karty graficzne...
tak tak, pamiętam ja tego cuda techniki...
A tak w PCI to jest badziew a nie nowoczesna karta.
..i z tego samego powodu nadal mamy FLOPa w naszych komputrach..;p
Wszyscy jadą po tym, że PhysX jest na starym PCI. I choć jestem w stanie zrozumieć, że stare złącze trochę spowalnia działanie samej karty i nie pozwala wykorzystać jej w pełni, tak argumenta, że zajmują miejsce uważam za zgoła... nieprzemyślane... co by tego dosadniej nie ujmować. Bez urazy.
Szanowni Państwo, zarówno autorzy jak i komentatorzy -
90% płyt głównych ma złącz PCI 3 lub więcej, a PCI-Ex1 jedno, które dodatkowo jest najczęściej położone albo tuż pod albo najlepiej pomiędzy dwoma złączami PCI-Ex16 w przypadku płyt pod SLI czy CrossFire. W dobie chłodzeń GPU zajmujących dodatkowe sloty to po prostu jakaś pomyłka by była robić PhysXa pod PCI-Ex1. Płyty z większą ilością PCI-Ex1 lub z ich rozsądniejszym położeniem to margines niestety nadal. Póki złącze PCI-Ex1 nie stanie się bardziej popularne i nie będą dostepne w większej jak jedno liczbie nie tylko w topowych typach płyt głównych puty stare PCI ma rację bytu.
Jest różnie np. na mojej płycie mam kolejność: 2xPCI-Ex1, PCI-Ex16, 3xPCI i bardziej by mi pasowała karta na PCIEx1
Natomiast to ze wydano kartę na PCI na pewno nie wpływa na wydajnośc. Wszyscy patrzą na to przez perspektywę kart graficznych, ale przecież karta fizyki nie przesyła gigabajtów tekstur tylko wyniki obliczeń, na co duża przepustowośc nie jest potrzebna. Można tu dyskutować jedynie czy jest sens wypuszczać nowe karty na stare złącza, ale myslę że nie wpływa to na wydajność. Pamiętam jak modemy przechodziły z ISA na PCI i jakoś nie spowodowało to zwiększenia ich szybkości
chodzilo mi czy bylaby roznica na slabym sprzecie jak po przesiadce z s3 virge dx na voodoo1 w quake2
Co z tym filmikiem??