właśnie wypromować ulepszyć tylko czemu dopiero teraz, havoka mogli już wcześniej promować o liczeniu fizyki na nv mówiło się już przy premierze serii8 (wyszło jak wyszło ale wyszło), gdyby zaczęli wspierać havoka w powiedzmy 2006 roku nie było by tych problemów co są teraz, nie uwierze w to że psyhx podczas swojej premiery te same możliwości co ma teraz, dystans się napewno zwiększył i teraz będzie trudno do nie go doskoczyć
Nie mam zielonego pojęcia, nie pracuje w AMD i nie mam tam wtyków by to wiedzieć, czemu zrobili tak a nie inaczej. Mogli, a może się po prostu nie dało, a moze coś innego? Wiem ze powinni to zrobić dawno temu, ale dobrze ze coś jednak teraz robią (lepiej późno niż wcale). Na razie natomiast nie zauważyłem niczego nowego w physx, prócz tego że sa gry które w końcu go minimalnie wykorzystują, a nie tylko na siłe wpychają bo im płacą za to (patrz mirros edge i kilka innych) i coś mi się wydaje że zbliżyć się do niego nie jest trudno, a tym bardziej przegonić, tylko trzeba mieć kasę, chęci i marketing.
A nie wciąż havok? A nawet jak najpopularniejszy to i tak 50% nie ma...
Havok nie jest już najpopularniejszy, ale faktycznie physX nie ma 50%.
Loofah @ 2010.03.09 12:39
To ze coś jest najpopularniejsze nijak ma się do tego czy jest dobre... Zobacz ile gier z tego korzysta i w jakim stopniu... Mirrors Edge - powiewające flagi i śmieci i tym podobne, a ile gier wykorzystuje Physx tak naprawdę że to widać od razu i coś to daje? Kilka... to że inne silniki sa mniej popularne znaczy że albo słabo marketingowo były, albo były jeszcze gorsze od physx, więc czas je wypromować lub poczekać/stworzyć coś dużo lepszego, choć w tym wypadku wystarczy poprawić to co jest na rynku, wypromować i zrobić z tego standard dla wszystkich i do tego wydaje mi się dąży w tej chwili ATI, bo fizyka musi działać na wszystkich kartach by miała przyszłość i być prosta. Dopóki 20% gier nie będzie korzystała z porządnej fizyki to nie można mówić o żadnym sukcesie i to ma korzystać na tyle by było to widoczne i zmieniało sposób grania, bo póki co dobre skrypty są lepsze niż niejedna fizyka.
Popularność PhysX zdobył dzięki dobrej jakości i tym, że jest darmowy (Havok jest lepszy, ale drogi, a Bullet jest darmowy, ale trochę gorszy jak na razie).
Co do gier które wykorzystują GPU (i dlatego fizyka może być ciekawsza - chodź nie tak imponująca jeśli można byłoby olać amd lub amd zaimplementowałoby PhysX) jest nie wiele, bo się nie opłaca robić dopóki nie ma możliwości obliczeń na kartach AMD (już jak powstanie Bullet to będzie można zrobić wrapper i będzie działać jako implementacja biblioteki PhysX w OpenCL ;p).
Blender - wykorzystuje własne symulacje fizyki (symulacje wody, ognia, ciuchów, ciał miękkich), a Bullet jest tylko w Blender Game Engine (do ciał sztywnych, i od niedawna ciał miękkich (ale to nie tą wykorzystuje blender do renderingu)).
Maya nie obsługuje Bullet - obsługę dodaje zewnętrzny plugin Dynamica (ale był stosowany przy np. Bolt).
Lightwave nie obsługuje Bullet - będzie obsługiwać go nowa wersja Lightwave Core która jest całkowicie przepisanym programem i z założenia wieloplatformowym (PhysX na Linuksie działa słabo, a Havok jest drogi, to wybór padł na Bullet).
Cinema 4D w najnowszej wersji faktycznie korzysta z Bullet - ale tylko ciała sztywne.
Bullet faktycznie jest uznanym i sprawdzonym silnikiem (m.in. sprawdzanym i popularyzowanym przez nVidię, bo zanim odpowiedziała na zakup Havoka przez Intela kupnem PhysX, sami wykorzystywali Bullet w swoich projektach (zresztą do niedawna)), jednak opinię na temat Bullet są dobre i stawiają go na trzecim miejscu za Havok i PhysX (możliwości (brak oficjalnie symulacji płynów, dopiero kilka dni temu dostał możliwość rozwalania siatek na kawałeczki...) i czasami niestabilne działanie obiektów na scenie, nie pozwalają póki co wybić mu się wyżej).
(...) Havok can be found in Autodesk Media and Entertainment's 3ds max as a bundled plug-in called reactor. A plugin for Autodesk Media and Entertainment's Maya animation software and an xtra for Adobe Director's Shockwave are also available. Havok supplies tools ( the 'Havok Content Tools' ) for export of assets for use with all Havok products from Autodesk 3ds Max, Autodesk Maya, and Autodesk Softimage (...)
Tak dla uściślenia.
sevae @ 2010.03.09 12:14
skoti48 @ 2010.03.09 07:40
Do osób wieszczących szybką detronizację PhysX
A to PhysX da się zdetronizować... znaczy się Twoim zdaniem króluje? Czyli w większości tytułów jest zaimplementowany?
(...) In 2008, Havok was honored at the 59th Annual Technology & Engineering Emmy Awards for advancing the development of physics engines in electronic entertainment (...) Między innymi za Matrixa
(...) Since the SDK's launch in 2000, it has been used in over 150 video and computer games (...)
Dajcie mi znać kiedy PhysX znajdzie się na tronie, bo raczej ciężko zdetronizować coś czego na tronie nie ma...
O widzę, że niektórzy nie mają już z kim kłócić się na forum to przenieśli się w komentarze.
Co do CUDA - NV bedzie go stosowac, czy to w Teslach czy jako frontend do physx, chociaz idea otwrtego standardu fizyki dla gpu jest jak najbardziej sluszna i bedzie wypierac physx, co nie podlega wątpliwości - szczególnie jeśli weźmiemy pod uwagę kompatybilność z wszystkimi kartami posiadającymi wsparcie dla OpenCL. Wiadomo również że kernelki skrobnięte w Cuda PTX czy CAL IL beda wydajniejsze na karcie danego producenta - ale optymalizacja etc pozostaje w kwestii developera/programisty/pasjonata (niepotrzebne skreślić )
Ktoś tam napisał (nie chce mi się już przekopywać przez tony postów celem cytowania), że nie można napisać programu z wykorzystaniem Stream SDK - dziwne, bo mi się udało zaimplementować (fakt includowanie. wrapowanie etc jest trochę czasochłonne) streama w małym szkolnym projekciku, warunkiem działania jest tylko odpowiednia wersja sterowników. A jak mi nie wierzysz, to popatrz np na GPURAR.
Co do interaktywnej fizyki - pierwszy RedFaction wywołał u mnie opad szczęki swoimi czasy, jeśli współczesne gry oferowałyby taki poziom ingerencji w środowisko rozgrywki, przy wykorzystaniu GPU któregokolwiek producenta celem tylko poprawy wydajności byłoby dobrze.
Kończąc wywód, mam nadzieje, że z inicjatywy AMD wyniknie coś pozytywnego w kwestii wykorzystania GPU do obliczeń czegoś innego niż sceny (z punktu widzenia enginu 3d) jest wielce porządane - przy obecnym poziomie graficznym (konsole, tak kosole i ich ograniczenia) gier większość najwydajniejszych kart graficznych po prostu się nudzi, stąd utylizacja tych GFLOPS dobrym pomysłem.
Średnio jak średnio - silnik jest najpopularniejszym silnikiem fizyki, więc wyszło im to dosyć dobrze - jedynie z obliczeniami GPU jest gorzej, bo fizyka musi działać i na kartach AMD (nie działa nić póki co więc musi być dostosowana do CPU więc nie ma sensu takiej fizyki na siłę wpychać na GPU skoro zadziała i na CPU).
To ze coś jest najpopularniejsze nijak ma się do tego czy jest dobre... Zobacz ile gier z tego korzysta i w jakim stopniu... Mirrors Edge - powiewające flagi i śmieci i tym podobne, a ile gier wykorzystuje Physx tak naprawdę że to widać od razu i coś to daje? Kilka... to że inne silniki sa mniej popularne znaczy że albo słabo marketingowo były, albo były jeszcze gorsze od physx, więc czas je wypromować lub poczekać/stworzyć coś dużo lepszego, choć w tym wypadku wystarczy poprawić to co jest na rynku, wypromować i zrobić z tego standard dla wszystkich i do tego wydaje mi się dąży w tej chwili ATI, bo fizyka musi działać na wszystkich kartach by miała przyszłość i być prosta. Dopóki 20% gier nie będzie korzystała z porządnej fizyki to nie można mówić o żadnym sukcesie i to ma korzystać na tyle by było to widoczne i zmieniało sposób grania, bo póki co dobre skrypty są lepsze niż niejedna fizyka.
właśnie wypromować ulepszyć tylko czemu dopiero teraz, havoka mogli już wcześniej promować o liczeniu fizyki na nv mówiło się już przy premierze serii8 (wyszło jak wyszło ale wyszło), gdyby zaczęli wspierać havoka w powiedzmy 2006 roku nie było by tych problemów co są teraz, nie uwierze w to że psyhx podczas swojej premiery te same możliwości co ma teraz, dystans się napewno zwiększył i teraz będzie trudno do nie go doskoczyć
Oczywiście, też mi się nie podoba ze dużo mówią mniej robią, ale główny problem to zrobienie własnego standardu - ja uważam ze ATI nie miałoby szans na zrobienie i wypromowanie tego, bo nawet nvidii średnio to wyszło kilka lat promocji a kilka gier na krzyż, dlatego zostaje tylko czekać aż ati zrobi to co mówi, bo nie sztuką jest zrobić coś nowego, ale zrobić coś co się przyjmie, będzie łatwe i będzie u wszystkich dobrze działało - nvidia zrobiła coś nowego, trudnego i bez GTX285 nie można grać z physx i wysokimi detalami w sporą część gier które to obsługują...
Średnio jak średnio - silnik jest najpopularniejszym silnikiem fizyki, więc wyszło im to dosyć dobrze - jedynie z obliczeniami GPU jest gorzej, bo fizyka musi działać i na kartach AMD (nie działa nić póki co więc musi być dostosowana do CPU więc nie ma sensu takiej fizyki na siłę wpychać na GPU skoro zadziała i na CPU).
Ale Ty tak gadasz żeby sobe pogadać? Nawet gdyby AMD miało od ponad roku obsługę physX czy innego silnika fizyki, to producenci musieli by robić wersje pod CPU ze względu na:
a) użytkowników ze starszymi lecz wciąż wystarczającymi do grania układami graficznymi (a takich jest sporo)
b) użytkowników, z nowymi lecz słabszymi układami, które mimo wsparcia fizyki są za słabe aby liczyć fizykę i grafikę jednocześnie.
Oczywiście, też mi się nie podoba ze dużo mówią mniej robią, ale główny problem to zrobienie własnego standardu - ja uważam ze ATI nie miałoby szans na zrobienie i wypromowanie tego, bo nawet nvidii średnio to wyszło kilka lat promocji a kilka gier na krzyż, dlatego zostaje tylko czekać aż ati zrobi to co mówi, bo nie sztuką jest zrobić coś nowego, ale zrobić coś co się przyjmie, będzie łatwe i będzie u wszystkich dobrze działało - nvidia zrobiła coś nowego, trudnego i bez GTX285 nie można grać z physx i wysokimi detalami w sporą część gier które to obsługują...
Średnio jak średnio - silnik jest najpopularniejszym silnikiem fizyki, więc wyszło im to dosyć dobrze - jedynie z obliczeniami GPU jest gorzej, bo fizyka musi działać i na kartach AMD (nie działa nić póki co więc musi być dostosowana do CPU więc nie ma sensu takiej fizyki na siłę wpychać na GPU skoro zadziała i na CPU).
To ze coś jest najpopularniejsze nijak ma się do tego czy jest dobre... Zobacz ile gier z tego korzysta i w jakim stopniu... Mirrors Edge - powiewające flagi i śmieci i tym podobne, a ile gier wykorzystuje Physx tak naprawdę że to widać od razu i coś to daje? Kilka... to że inne silniki sa mniej popularne znaczy że albo słabo marketingowo były, albo były jeszcze gorsze od physx, więc czas je wypromować lub poczekać/stworzyć coś dużo lepszego, choć w tym wypadku wystarczy poprawić to co jest na rynku, wypromować i zrobić z tego standard dla wszystkich i do tego wydaje mi się dąży w tej chwili ATI, bo fizyka musi działać na wszystkich kartach by miała przyszłość i być prosta (nie moze być tak że włączenie fizyka i wydajność spada dwukrotnie). Dopóki 20% gier nie będzie korzystała z porządnej fizyki to nie można mówić o żadnym sukcesie i to ma korzystać na tyle by było to widoczne i zmieniało sposób grania, bo póki co dobre skrypty są lepsze niż niejedna fizyka.
Oczywiście, też mi się nie podoba ze dużo mówią mniej robią, ale główny problem to zrobienie własnego standardu - ja uważam ze ATI nie miałoby szans na zrobienie i wypromowanie tego, bo nawet nvidii średnio to wyszło kilka lat promocji a kilka gier na krzyż, dlatego zostaje tylko czekać aż ati zrobi to co mówi, bo nie sztuką jest zrobić coś nowego, ale zrobić coś co się przyjmie, będzie łatwe i będzie u wszystkich dobrze działało - nvidia zrobiła coś nowego, trudnego i bez GTX285 nie można grać z physx i wysokimi detalami w sporą część gier które to obsługują...
Średnio jak średnio - silnik jest najpopularniejszym silnikiem fizyki, więc wyszło im to dosyć dobrze - jedynie z obliczeniami GPU jest gorzej, bo fizyka musi działać i na kartach AMD (nie działa nić póki co więc musi być dostosowana do CPU więc nie ma sensu takiej fizyki na siłę wpychać na GPU skoro zadziała i na CPU).
Więc jakby chcieli coś zrobić to raczej dopiero teraz mogliby zacząć, ale to już byłoby zbyt późno, bo samo zrobienie tego trwa, a wypromowanie tym bardziej, więc muszą to zrobić w trochę inny sposób czyli OpenCL i takie tam.
Amd jest wystarczająco dużą firmą, a wcale nie musi tworzyć swojego standardu tylko zaimplementować istniejący już wypromowany (lub chociaż pomóc przy rozwoju takich tak jak Bullet, a nie tylko mówienia, że ich karty będą obsługiwać Bullet, i czekać, aż samo się zrobi). Co do OpenCL to też nie jest to sposób Amd, tylko przymus, który postawili przed Amd Apple i nVidia (Apple razem z nVidią ustaliły standard (szefem prac nad OpenCL był wiceprezes nVidii)) i żeby karty AMD były wkładane do kompów z MacOS ich karty muszą obsługiwać OpenCL.
Oczywiście, też mi się nie podoba ze dużo mówią mniej robią, ale główny problem to zrobienie własnego standardu - ja uważam ze ATI nie miałoby szans na zrobienie i wypromowanie tego, bo nawet nvidii średnio to wyszło kilka lat promocji a kilka gier na krzyż, dlatego zostaje tylko czekać aż ati zrobi to co mówi, bo nie sztuką jest zrobić coś nowego, ale zrobić coś co się przyjmie, będzie łatwe i będzie u wszystkich dobrze działało - nvidia zrobiła coś nowego, trudnego i bez GTX285 nie można grać z physx i wysokimi detalami w sporą część gier które to obsługują, więc jeśli powstanie otwarty prosty standard dający duże możliwości to choć nie będzie t nic nowego to być moze przyjmie się na tyle że będzie w kazdej grze i będzie działać na każdej karcie.
Więc jakby chcieli coś zrobić to raczej dopiero teraz mogliby zacząć, ale to już byłoby zbyt późno, bo samo zrobienie tego trwa, a wypromowanie tym bardziej, więc muszą to zrobić w trochę inny sposób czyli OpenCL i takie tam.
Amd jest wystarczająco dużą firmą, a wcale nie musi tworzyć swojego standardu tylko zaimplementować istniejący już wypromowany (lub chociaż pomóc przy rozwoju takich tak jak Bullet, a nie tylko mówienia, że ich karty będą obsługiwać Bullet, i czekać, aż samo się zrobi). Co do OpenCL to też nie jest to sposób Amd, tylko przymus, który postawili przed Amd Apple i nVidia (Apple razem z nVidią ustaliły standard (szefem prac nad OpenCL był wiceprezes nVidii)) i żeby karty AMD były wkładane do kompów z MacOS ich karty muszą obsługiwać OpenCL.
sevae @ 2010.03.09 12:14
skoti48 @ 2010.03.09 07:40
Do osób wieszczących szybką detronizację PhysX
A to PhysX da się zdetronizować... znaczy się Twoim zdaniem króluje? Czyli w większości tytułów jest zaimplementowany?
Liczby nie kłamią - PhysX jest najpopularniejszym silnikiem fizyki, Havok jest drugi względem popularności, a Bullet jest trzecim silnikiem fizyki względem popularności - ofc nie wszystkie gry z physx korzystają z GPU, ale zmiana silnika nawet jeśli korzysta tylko z CPU na inny musi mieć jakieś uzasadnienie i na pewno nie będzie to przejście z dnia na dzień.
to zabrzmi głupio ale ati przed premierą serii8 nv mieli wyrażną przewagę technologiczną, pierwszy układ garficzny z unifikowanymi shaderami, pierwsza technologia obliczeń równoległych na gpu wystarczyło to sklecić w jedną całość i mieli by karty na poziomie podbnym co oferowały gf z serii8 i napewno nie stracili by tak dużo rynku, a same technologie mogli rozwijać dalej i promowac je chociaż w podobnym stopniu co nv na pewno nie stracili by na tym, w czasie kryzysu tej firmy zaczęli prowadzić politekę uległa zamiast agresywnie iść do przodu sutyacja w zasadzie zmieniła się dopiero od serii hd4
Ale poszli w inną stronę, woleli stworzyć coś nowego (ATi), i wydajnościowo nie zachwycało... inaczej nie dało się tego zrobić bo musieliby projektować równolegle 2 różne chipsety.
Teraz podobnie nVidia postępuje, dlatego mocno w grach nie odskoczy - a też mogli rozwinąć poprzednią architekturę tak żeby w grach zmasakrowała ATi... jak widać również nie stać ich było na 2 równoległe zaawansowane projekty - a zwlekając z wejściem w architektórę podobną do Radeona byłoby samobójstwem - bo ATi by odskoczyło technologicznie (mimo mniejszej wydajności w grach).
Tyle że AMD przynosi jak na razie straty więc bym rzekł ze większe szanse miałoby samo ATI niż ATI + AMD... Więc jakby chcieli coś zrobić to raczej dopiero teraz mogliby zacząć, ale to już byłoby zbyt późno, bo samo zrobienie tego trwa, a wypromowanie tym bardziej, więc muszą to zrobić w trochę inny sposób czyli OpenCL i takie tam. No i jednak ATI jest mniejsze od Nvidia, wystarczy zobaczyć że nvidia wydaje już 'własne' marne komputery , więcej osób u nich pracuje i nie musi minimalizować strat AMD ;]
DOWN: jak można oczernić kogoś, kto sam siebie oczernia każdą wypowiedzią? Taka drobna uwaga.
to zabrzmi głupio ale ati przed premierą serii8 nv mieli wyrażną przewagę technologiczną, pierwszy układ garficzny z unifikowanymi shaderami, pierwsza technologia obliczeń równoległych na gpu wystarczyło to sklecić w jedną całość i mieli by karty na poziomie podbnym co oferowały gf z serii8 i napewno nie stracili by tak dużo rynku, a same technologie mogli rozwijać dalej i promowac je chociaż w podobnym stopniu co nv na pewno nie stracili by na tym, w czasie kryzysu tej firmy zaczęli prowadzić politekę uległa zamiast agresywnie iść do przodu sutyacja w zasadzie zmieniła się dopiero od serii hd4
Stanley
Jak już kiedyś pisałem, nie wazne co się wie, ale jeśli będzie się przekazywało tą wiedze w sposób na idiotę (na SulacO?), to równie dobrze można by mówić głupoty, dlatego nie dziwię się że nikt nie chce z nim dyskutować, albo robi to na równie niskim poziomie. Również nie dociera do niego nic co mówią inni - więc po co mu cokolwiek udowadniać, dużo przyjemniej takiemu komuś cały czas pisać ze jest w błędzie nawet jak nie jest, co jest błędem, bo lepiej takiego kogoś ignorować. Ja nie widzę sensu obalenia czegokolwiek co powiedział SulacO, bo jego treść i sposób przekazania tego samo obala jego wypowiedz. Zatem prawdziwa wiedza sama się nie obroni jak się ją jak debil przekazuje. A co do zagotowania - jesli ktoś robi to specjalnie, albo wierzy w to co mówi, to na nic żadne dowody, wiedza, bo ten ktoś żyje we walsnym świecie i na pewno nie uda się go zagotować, bo by to zrobić wpierw trzeba by mu cos udowodnić, a tutaj wkraczamy w błędne koło bo ten ktoś zyje we własnym świecie więc jak mu coś udowodnić?
Historia mojego bana jest bardzo ciekawa... Sulaco i Vega zaczeli jechać po ATi w temacie HD5850/5870/5970. MaxForces rzucił jakimś screenem i dopatrzył się niby spadku IQ na nowych sterach. Vega coś tam na screenie zauważył niby a ja napisałem czy nosi okulary i ile dioptrii. Chciałem wiedzieć czy jest krótko wzroczny czy daleko... Potem moje posty zostały usunięte a bana mam od 24 lutego... i tak będzie do zawsze myślę Więc Vega AKA Piotr Gontarczyk jest dla mnie skończonym dupkiem.
Nikomu nie spamowałem na privie... Do Sulaco napisałem 2 wiadomości bez żadnych wyzwisk czy czegoś podobnego. Sam link do bencha i prawdopodobnych specyfikacji GTX470 bo na forum napisał jakoby GTX480 będzie miał rdzeń 750mhz co było nie prawdą wiec chciałem wiedzieć skąd wzioł te dane... I za to człowiek ma bana a jego działania są zacierane...
Hm, dostałeś bana, taki ban zazwyczaj ma uzasadnienie, przeczytaj je bo być moze w miedzyczasie nabroiłeś i bezpodstawnie oczerniasz SulacO.
Jesli chodzi o 'kółko zdoracji' i SulacO:
Psychologia powszechnie uznaje zjawisko tzw. projekcji czyli tgz. 'narcystyczny mechanizm obronny' który przedstawia wady własnej osobowości, własnego zachowania jako zachowanie innych, trudno przebić sie przez bariery utworzone w ten sposób, niektórzy nazywają to klapkami na oczach.
Teraz konkrety, czy ktokolwiek z was(poza nielicznymi wyjątkami) uzasadnił, obalił treści z którymi polemizował SulacO? Prawdziwa wiedza, fakty, bronią się same, żadna manipulacja z nimi nie wygra. Warto używać wiedzy by rozmówca zagotował się sam, a nie obelg.
Wolałbym jednak się w to nie wdawać bo moja dziewczyna określa to mianem 'wkręcania' komuś czegoś czego nie myśli. Co mnie cholernie denerwuje bo nie sposób pogadać normalnie... Mniejsza o to, gdyby wszyscy reagowali na 'argumenty' argumentami a nie rozpoczynali dyskusji o dyskutantach świat byłby lepszy.
W gruncie rzeczy w świetle argumentów innych mysle ze SulacO ma racje, ale częściowo i na podstawie tego co pisał zdaje sobie z tego sprawe, jasno to pisze.(podatek od technologii w grach, kartach NVidii)
Być moze tylko pozornie PhysX jest darmowe, a zmiany płatne, trudno ocenić ostateczny rozrachunek. Czy w studiach programistów tworzących gre istnieje konieczność dokonywania zmian w silniku, czy w realnych pracach muszą płacić NVidii czy nie...teoria teorią ale liczy się praktyka. Niewielu z komentujących jest w stanie samodzielnie to ocenić.
Przypomina to analizowanie kosztów instalacji Linuxa na serwerach czy stanowiskach roboczych, niby za darmo, względem odpowiedników od MS, a realia...czy rzeczywiście utrzymanie takiego systemu jest za darmo?
W świetle wielu raportów ale i również na podstawie logicznego myślenia sądze ze nie jest to za darmo.
I w specyficznych zastosowaniach moze wychodzić nawet drozej...ze względu na konieczność zatrudniania administratorów z większą wiedzą i doświadczeniem, no i inaczej nie istniałyby firmy takie jak Canonical, Novel itp. Nic na świecie nie jest za darmo.
Jesli jest za darmo to znaczy że nic nie jest warte albo trzeba włożyć sporo trudu i czasu by było.
Trudno by NVidia otworzyła PhysX, nie tylko ze względu na ATI ale ze względu na konkurencje, np. Pixelux itp. którzy mogli by zwyczajnie zerżnąć rozwiązania zaimplementowane przez śp. Ageie.
ATI mogłoby zapłacić NVidii za licencje, od kilku lat mielibyśmy standard fizyki a tak czas ucieka.
Z drugiej strony ich decyzja może być zrozumiała..i nic nam do tego. To problem NVidii że ich technologia jest na wyłączność, producenci gier jakoś sobie poradzą.
Narazie karty graficzne są za liche by wziąść na siebie wszystkie obliczenia fizyczne, narzekanie ludu na spadek wydajności przy włączonym PhysX który obsługuje jedynie liście i kurz dobitnie o tym świadczy.
Tyle że AMD przynosi jak na razie straty więc bym rzekł ze większe szanse miałoby samo ATI niż ATI + AMD... Więc jakby chcieli coś zrobić to raczej dopiero teraz mogliby zacząć, ale to już byłoby zbyt późno, bo samo zrobienie tego trwa, a wypromowanie tym bardziej, więc muszą to zrobić w trochę inny sposób czyli OpenCL i takie tam. No i jednak ATI jest mniejsze od Nvidia, wystarczy zobaczyć że nvidia wydaje już 'własne' marne komputery , więcej osób u nich pracuje i nie musi minimalizować strat AMD ;]
DOWN: jak można oczernić kogoś, kto sam siebie oczernia każdą wypowiedzią? Taka drobna uwaga.
Skrajnego fanatyzmu nie podzielam(wogóle żadnego), a ten się znajduje zarówno po stronie fanów nv i ati(ci drudzy troche lepiej się kamuflują).
taki mały przykład w komentarzu 12 napisałem że ati blokuje rozwój nie wprowadzając własnego standartu przez 2 lata i minusy się posypały a nikt nawet nie postawił kontrargumentu(nie był w stanie a może nie chciał rozpocząć rozmowy) jestem pewien że jak bym napisał że nv blokuje rozwój to w miejsce tych minusów same plusiki by się pojawiły.
Ja ci odpowiem - ATI nie ma 60%+ rynku by móc wprowadzać własne zamknięte standardy, również nie jest tak bogaty i nie ma tyle kasy, dlatego korzysta z rozwiązań trochę innych i nie swoich ale już znanych typu Havoc, bo własnych nie byłoby wstanie wypromować, a przynajmniej nie przez najbliższe kilkanaście lat - wystarczy zauważyć że to co Nvidia wypromowała w 3-4 lata ATI zajęłoby 8-12 lat, bo po prostu jest mniejsze i nie ma takiej sławy by na jej nazwę dostawać orgazmu czy czegoś, oraz nie kazdy kowalski ją zna i jej ufa w porównaniu do nvidii, oraz nie ma tyle kasy by płącić twórcom gier by to dawali do swoich gier.
coż ati nie ma 60% runku ale napewno nie jest mniejsze od nv , zapominasz o ich wielkim bracie amd napewno łatwiej im było wprowadzić swój własny standart zwłaszcze że od przemiery serii hd4 ich karty mają teoretycznie więcej mocy obliczeniowej niz konkurenci z nv. naprawde mieli dużo czasu by zobić coś w tym kierunku
Tylko co najbardziej mnie wkurza że taki Sulaco wszędzie się wepchnie i oczerni AMD. Na forum jest pełno użytkowników którzy się nie znają na rzeczy i tam udziela się właśnie Sulaco. Ja nie mam dostępu bo dostałem bana za poprawianie tego idioty. Ostatnio mu przesłałem link na priw z benchem do GTX470 to po paru minutach bana dostałem... Do innych pisałem i nic a do Sulaco napisałem i od razu ban ... Sulaco trzyma z Vegą i jego podobnymi i nic się nie zrobi w tej kwestii... Jak napisałem wcześniej ma plecy i jest do tego konfidentem. A parenaście postów wyżej napisał że to my tworzymy kółeczko wspólnej adoracji... ŻAŁOSNE
Skrajnego fanatyzmu nie podzielam(wogóle żadnego), a ten się znajduje zarówno po stronie fanów nv i ati(ci drudzy troche lepiej się kamuflują).
taki mały przykład w komentarzu 12 napisałem że ati blokuje rozwój nie wprowadzając własnego standartu przez 2 lata i minusy się posypały a nikt nawet nie postawił kontrargumentu(nie był w stanie a może nie chciał rozpocząć rozmowy) jestem pewien że jak bym napisał że nv blokuje rozwój to w miejsce tych minusów same plusiki by się pojawiły.
Ja ci odpowiem - ATI nie ma 60%+ rynku by móc wprowadzać własne zamknięte standardy, również nie jest tak bogaty i nie ma tyle kasy, dlatego korzysta z rozwiązań trochę innych i nie swoich ale już znanych typu Havoc, bo własnych nie byłoby wstanie wypromować, a przynajmniej nie przez najbliższe kilkanaście lat - wystarczy zauważyć że to co Nvidia wypromowała w 3-4 lata Physx, który nadal ejst słabo wypromowany ale przynajmniej większość go zna) ATI zajęłoby 8-12 lat, bo po prostu jest mniejsze i nie ma takiej sławy by na jej nazwę dostawać orgazmu czy czegoś, oraz nie każdy kowalski ją zna i jej ufa w porównaniu do nvidii, oraz nie ma tyle kasy by płacić twórcom gier by to dawali to do swoich gier. Dlatego ATI nie blokuje rozwoju tylko idzie inną ścieżka na którą ma możliwości, co innego gdyby mogła, miała mozliwosć, ale powiedziała NIET! bo nie.
Historia mojego bana jest bardzo ciekawa... Sulaco i Vega zaczeli jechać po ATi w temacie HD5850/5870/5970. MaxForces rzucił jakimś screenem i dopatrzył się niby spadku IQ na nowych sterach. Vega coś tam na screenie zauważył niby a ja napisałem czy nosi okulary i ile dioptrii. Chciałem wiedzieć czy jest krótko wzroczny czy daleko... Potem moje posty zostały usunięte a bana mam od 24 lutego... i tak będzie do zawsze myślę Więc Vega AKA Piotr Gontarczyk jest dla mnie skończonym dupkiem.
Nikomu nie spamowałem na privie... Do Sulaco napisałem 2 wiadomości bez żadnych wyzwisk czy czegoś podobnego. Sam link do bencha i prawdopodobnych specyfikacji GTX470 bo na forum napisał jakoby GTX480 będzie miał rdzeń 750mhz co było nie prawdą wiec chciałem wiedzieć skąd wzioł te dane... I za to człowiek ma bana a jego działania są zacierane...
właśnie wypromować ulepszyć tylko czemu dopiero teraz, havoka mogli już wcześniej promować o liczeniu fizyki na nv mówiło się już przy premierze serii8 (wyszło jak wyszło ale wyszło), gdyby zaczęli wspierać havoka w powiedzmy 2006 roku nie było by tych problemów co są teraz, nie uwierze w to że psyhx podczas swojej premiery te same możliwości co ma teraz, dystans się napewno zwiększył i teraz będzie trudno do nie go doskoczyć
Nie mam zielonego pojęcia, nie pracuje w AMD i nie mam tam wtyków by to wiedzieć, czemu zrobili tak a nie inaczej. Mogli, a może się po prostu nie dało, a moze coś innego? Wiem ze powinni to zrobić dawno temu, ale dobrze ze coś jednak teraz robią (lepiej późno niż wcale). Na razie natomiast nie zauważyłem niczego nowego w physx, prócz tego że sa gry które w końcu go minimalnie wykorzystują, a nie tylko na siłe wpychają bo im płacą za to (patrz mirros edge i kilka innych) i coś mi się wydaje że zbliżyć się do niego nie jest trudno, a tym bardziej przegonić, tylko trzeba mieć kasę, chęci i marketing.
A nie wciąż havok? A nawet jak najpopularniejszy to i tak 50% nie ma...
Havok nie jest już najpopularniejszy, ale faktycznie physX nie ma 50%.
To ze coś jest najpopularniejsze nijak ma się do tego czy jest dobre... Zobacz ile gier z tego korzysta i w jakim stopniu... Mirrors Edge - powiewające flagi i śmieci i tym podobne, a ile gier wykorzystuje Physx tak naprawdę że to widać od razu i coś to daje? Kilka... to że inne silniki sa mniej popularne znaczy że albo słabo marketingowo były, albo były jeszcze gorsze od physx, więc czas je wypromować lub poczekać/stworzyć coś dużo lepszego, choć w tym wypadku wystarczy poprawić to co jest na rynku, wypromować i zrobić z tego standard dla wszystkich i do tego wydaje mi się dąży w tej chwili ATI, bo fizyka musi działać na wszystkich kartach by miała przyszłość i być prosta. Dopóki 20% gier nie będzie korzystała z porządnej fizyki to nie można mówić o żadnym sukcesie i to ma korzystać na tyle by było to widoczne i zmieniało sposób grania, bo póki co dobre skrypty są lepsze niż niejedna fizyka.
Popularność PhysX zdobył dzięki dobrej jakości i tym, że jest darmowy (Havok jest lepszy, ale drogi, a Bullet jest darmowy, ale trochę gorszy jak na razie).
Co do gier które wykorzystują GPU (i dlatego fizyka może być ciekawsza - chodź nie tak imponująca jeśli można byłoby olać amd lub amd zaimplementowałoby PhysX) jest nie wiele, bo się nie opłaca robić dopóki nie ma możliwości obliczeń na kartach AMD (już jak powstanie Bullet to będzie można zrobić wrapper i będzie działać jako implementacja biblioteki PhysX w OpenCL ;p).
Co do programów:
Blender - wykorzystuje własne symulacje fizyki (symulacje wody, ognia, ciuchów, ciał miękkich), a Bullet jest tylko w Blender Game Engine (do ciał sztywnych, i od niedawna ciał miękkich (ale to nie tą wykorzystuje blender do renderingu)).
Maya nie obsługuje Bullet - obsługę dodaje zewnętrzny plugin Dynamica (ale był stosowany przy np. Bolt).
Lightwave nie obsługuje Bullet - będzie obsługiwać go nowa wersja Lightwave Core która jest całkowicie przepisanym programem i z założenia wieloplatformowym (PhysX na Linuksie działa słabo, a Havok jest drogi, to wybór padł na Bullet).
Cinema 4D w najnowszej wersji faktycznie korzysta z Bullet - ale tylko ciała sztywne.
Bullet faktycznie jest uznanym i sprawdzonym silnikiem (m.in. sprawdzanym i popularyzowanym przez nVidię, bo zanim odpowiedziała na zakup Havoka przez Intela kupnem PhysX, sami wykorzystywali Bullet w swoich projektach (zresztą do niedawna)), jednak opinię na temat Bullet są dobre i stawiają go na trzecim miejscu za Havok i PhysX (możliwości (brak oficjalnie symulacji płynów, dopiero kilka dni temu dostał możliwość rozwalania siatek na kawałeczki...) i czasami niestabilne działanie obiektów na scenie, nie pozwalają póki co wybić mu się wyżej).
(...) Havok can be found in Autodesk Media and Entertainment's 3ds max as a bundled plug-in called reactor. A plugin for Autodesk Media and Entertainment's Maya animation software and an xtra for Adobe Director's Shockwave are also available. Havok supplies tools ( the 'Havok Content Tools' ) for export of assets for use with all Havok products from Autodesk 3ds Max, Autodesk Maya, and Autodesk Softimage (...)
Tak dla uściślenia.
A to PhysX da się zdetronizować... znaczy się Twoim zdaniem króluje? Czyli w większości tytułów jest zaimplementowany?
(...) In 2008, Havok was honored at the 59th Annual Technology & Engineering Emmy Awards for advancing the development of physics engines in electronic entertainment (...) Między innymi za Matrixa
(...) Since the SDK's launch in 2000, it has been used in over 150 video and computer games (...)
Dajcie mi znać kiedy PhysX znajdzie się na tronie, bo raczej ciężko zdetronizować coś czego na tronie nie ma...
Co do CUDA - NV bedzie go stosowac, czy to w Teslach czy jako frontend do physx, chociaz idea otwrtego standardu fizyki dla gpu jest jak najbardziej sluszna i bedzie wypierac physx, co nie podlega wątpliwości - szczególnie jeśli weźmiemy pod uwagę kompatybilność z wszystkimi kartami posiadającymi wsparcie dla OpenCL. Wiadomo również że kernelki skrobnięte w Cuda PTX czy CAL IL beda wydajniejsze na karcie danego producenta - ale optymalizacja etc pozostaje w kwestii developera/programisty/pasjonata (niepotrzebne skreślić
Ktoś tam napisał (nie chce mi się już przekopywać przez tony postów celem cytowania), że nie można napisać programu z wykorzystaniem Stream SDK - dziwne, bo mi się udało zaimplementować (fakt includowanie. wrapowanie etc jest trochę czasochłonne) streama w małym szkolnym projekciku, warunkiem działania jest tylko odpowiednia wersja sterowników. A jak mi nie wierzysz, to popatrz np na GPURAR.
Co do interaktywnej fizyki - pierwszy RedFaction wywołał u mnie opad szczęki swoimi czasy, jeśli współczesne gry oferowałyby taki poziom ingerencji w środowisko rozgrywki, przy wykorzystaniu GPU któregokolwiek producenta celem tylko poprawy wydajności byłoby dobrze.
Kończąc wywód, mam nadzieje, że z inicjatywy AMD wyniknie coś pozytywnego w kwestii wykorzystania GPU do obliczeń czegoś innego niż sceny (z punktu widzenia enginu 3d) jest wielce porządane - przy obecnym poziomie graficznym (konsole, tak kosole i ich ograniczenia
Średnio jak średnio - silnik jest najpopularniejszym silnikiem fizyki, więc wyszło im to dosyć dobrze - jedynie z obliczeniami GPU jest gorzej, bo fizyka musi działać i na kartach AMD (nie działa nić póki co więc musi być dostosowana do CPU więc nie ma sensu takiej fizyki na siłę wpychać na GPU skoro zadziała i na CPU).
To ze coś jest najpopularniejsze nijak ma się do tego czy jest dobre... Zobacz ile gier z tego korzysta i w jakim stopniu... Mirrors Edge - powiewające flagi i śmieci i tym podobne, a ile gier wykorzystuje Physx tak naprawdę że to widać od razu i coś to daje? Kilka... to że inne silniki sa mniej popularne znaczy że albo słabo marketingowo były, albo były jeszcze gorsze od physx, więc czas je wypromować lub poczekać/stworzyć coś dużo lepszego, choć w tym wypadku wystarczy poprawić to co jest na rynku, wypromować i zrobić z tego standard dla wszystkich i do tego wydaje mi się dąży w tej chwili ATI, bo fizyka musi działać na wszystkich kartach by miała przyszłość i być prosta. Dopóki 20% gier nie będzie korzystała z porządnej fizyki to nie można mówić o żadnym sukcesie i to ma korzystać na tyle by było to widoczne i zmieniało sposób grania, bo póki co dobre skrypty są lepsze niż niejedna fizyka.
właśnie wypromować ulepszyć tylko czemu dopiero teraz, havoka mogli już wcześniej promować o liczeniu fizyki na nv mówiło się już przy premierze serii8 (wyszło jak wyszło ale wyszło), gdyby zaczęli wspierać havoka w powiedzmy 2006 roku nie było by tych problemów co są teraz, nie uwierze w to że psyhx podczas swojej premiery te same możliwości co ma teraz, dystans się napewno zwiększył i teraz będzie trudno do nie go doskoczyć
Oczywiście, też mi się nie podoba ze dużo mówią mniej robią, ale główny problem to zrobienie własnego standardu - ja uważam ze ATI nie miałoby szans na zrobienie i wypromowanie tego, bo nawet nvidii średnio to wyszło kilka lat promocji a kilka gier na krzyż, dlatego zostaje tylko czekać aż ati zrobi to co mówi, bo nie sztuką jest zrobić coś nowego, ale zrobić coś co się przyjmie, będzie łatwe i będzie u wszystkich dobrze działało - nvidia zrobiła coś nowego, trudnego i bez GTX285 nie można grać z physx i wysokimi detalami w sporą część gier które to obsługują...
Średnio jak średnio - silnik jest najpopularniejszym silnikiem fizyki, więc wyszło im to dosyć dobrze - jedynie z obliczeniami GPU jest gorzej, bo fizyka musi działać i na kartach AMD (nie działa nić póki co więc musi być dostosowana do CPU więc nie ma sensu takiej fizyki na siłę wpychać na GPU skoro zadziała i na CPU).
Ale Ty tak gadasz żeby sobe pogadać? Nawet gdyby AMD miało od ponad roku obsługę physX czy innego silnika fizyki, to producenci musieli by robić wersje pod CPU ze względu na:
a) użytkowników ze starszymi lecz wciąż wystarczającymi do grania układami graficznymi (a takich jest sporo)
b) użytkowników, z nowymi lecz słabszymi układami, które mimo wsparcia fizyki są za słabe aby liczyć fizykę i grafikę jednocześnie.
Więc sytuacja była by wciąż taka jak teraz.
Oczywiście, też mi się nie podoba ze dużo mówią mniej robią, ale główny problem to zrobienie własnego standardu - ja uważam ze ATI nie miałoby szans na zrobienie i wypromowanie tego, bo nawet nvidii średnio to wyszło kilka lat promocji a kilka gier na krzyż, dlatego zostaje tylko czekać aż ati zrobi to co mówi, bo nie sztuką jest zrobić coś nowego, ale zrobić coś co się przyjmie, będzie łatwe i będzie u wszystkich dobrze działało - nvidia zrobiła coś nowego, trudnego i bez GTX285 nie można grać z physx i wysokimi detalami w sporą część gier które to obsługują...
Średnio jak średnio - silnik jest najpopularniejszym silnikiem fizyki, więc wyszło im to dosyć dobrze - jedynie z obliczeniami GPU jest gorzej, bo fizyka musi działać i na kartach AMD (nie działa nić póki co więc musi być dostosowana do CPU więc nie ma sensu takiej fizyki na siłę wpychać na GPU skoro zadziała i na CPU).
To ze coś jest najpopularniejsze nijak ma się do tego czy jest dobre... Zobacz ile gier z tego korzysta i w jakim stopniu... Mirrors Edge - powiewające flagi i śmieci i tym podobne, a ile gier wykorzystuje Physx tak naprawdę że to widać od razu i coś to daje? Kilka... to że inne silniki sa mniej popularne znaczy że albo słabo marketingowo były, albo były jeszcze gorsze od physx, więc czas je wypromować lub poczekać/stworzyć coś dużo lepszego, choć w tym wypadku wystarczy poprawić to co jest na rynku, wypromować i zrobić z tego standard dla wszystkich i do tego wydaje mi się dąży w tej chwili ATI, bo fizyka musi działać na wszystkich kartach by miała przyszłość i być prosta (nie moze być tak że włączenie fizyka i wydajność spada dwukrotnie). Dopóki 20% gier nie będzie korzystała z porządnej fizyki to nie można mówić o żadnym sukcesie i to ma korzystać na tyle by było to widoczne i zmieniało sposób grania, bo póki co dobre skrypty są lepsze niż niejedna fizyka.
Średnio jak średnio - silnik jest najpopularniejszym silnikiem fizyki
A nie wciąż havok? A nawet jak najpopularniejszy to i tak 50% nie ma...
Oczywiście, też mi się nie podoba ze dużo mówią mniej robią, ale główny problem to zrobienie własnego standardu - ja uważam ze ATI nie miałoby szans na zrobienie i wypromowanie tego, bo nawet nvidii średnio to wyszło kilka lat promocji a kilka gier na krzyż, dlatego zostaje tylko czekać aż ati zrobi to co mówi, bo nie sztuką jest zrobić coś nowego, ale zrobić coś co się przyjmie, będzie łatwe i będzie u wszystkich dobrze działało - nvidia zrobiła coś nowego, trudnego i bez GTX285 nie można grać z physx i wysokimi detalami w sporą część gier które to obsługują...
Średnio jak średnio - silnik jest najpopularniejszym silnikiem fizyki, więc wyszło im to dosyć dobrze - jedynie z obliczeniami GPU jest gorzej, bo fizyka musi działać i na kartach AMD (nie działa nić póki co więc musi być dostosowana do CPU więc nie ma sensu takiej fizyki na siłę wpychać na GPU skoro zadziała i na CPU).
Amd jest wystarczająco dużą firmą, a wcale nie musi tworzyć swojego standardu tylko zaimplementować istniejący już wypromowany (lub chociaż pomóc przy rozwoju takich tak jak Bullet, a nie tylko mówienia, że ich karty będą obsługiwać Bullet, i czekać, aż samo się zrobi). Co do OpenCL to też nie jest to sposób Amd, tylko przymus, który postawili przed Amd Apple i nVidia (Apple razem z nVidią ustaliły standard (szefem prac nad OpenCL był wiceprezes nVidii)) i żeby karty AMD były wkładane do kompów z MacOS ich karty muszą obsługiwać OpenCL.
Oczywiście, też mi się nie podoba ze dużo mówią mniej robią, ale główny problem to zrobienie własnego standardu - ja uważam ze ATI nie miałoby szans na zrobienie i wypromowanie tego, bo nawet nvidii średnio to wyszło kilka lat promocji a kilka gier na krzyż, dlatego zostaje tylko czekać aż ati zrobi to co mówi, bo nie sztuką jest zrobić coś nowego, ale zrobić coś co się przyjmie, będzie łatwe i będzie u wszystkich dobrze działało - nvidia zrobiła coś nowego, trudnego i bez GTX285 nie można grać z physx i wysokimi detalami w sporą część gier które to obsługują, więc jeśli powstanie otwarty prosty standard dający duże możliwości to choć nie będzie t nic nowego to być moze przyjmie się na tyle że będzie w kazdej grze i będzie działać na każdej karcie.
Amd jest wystarczająco dużą firmą, a wcale nie musi tworzyć swojego standardu tylko zaimplementować istniejący już wypromowany (lub chociaż pomóc przy rozwoju takich tak jak Bullet, a nie tylko mówienia, że ich karty będą obsługiwać Bullet, i czekać, aż samo się zrobi). Co do OpenCL to też nie jest to sposób Amd, tylko przymus, który postawili przed Amd Apple i nVidia (Apple razem z nVidią ustaliły standard (szefem prac nad OpenCL był wiceprezes nVidii)) i żeby karty AMD były wkładane do kompów z MacOS ich karty muszą obsługiwać OpenCL.
A to PhysX da się zdetronizować... znaczy się Twoim zdaniem króluje? Czyli w większości tytułów jest zaimplementowany?
Liczby nie kłamią - PhysX jest najpopularniejszym silnikiem fizyki, Havok jest drugi względem popularności, a Bullet jest trzecim silnikiem fizyki względem popularności - ofc nie wszystkie gry z physx korzystają z GPU, ale zmiana silnika nawet jeśli korzysta tylko z CPU na inny musi mieć jakieś uzasadnienie i na pewno nie będzie to przejście z dnia na dzień.
to zabrzmi głupio ale ati przed premierą serii8 nv mieli wyrażną przewagę technologiczną, pierwszy układ garficzny z unifikowanymi shaderami, pierwsza technologia obliczeń równoległych na gpu wystarczyło to sklecić w jedną całość i mieli by karty na poziomie podbnym co oferowały gf z serii8 i napewno nie stracili by tak dużo rynku, a same technologie mogli rozwijać dalej i promowac je chociaż w podobnym stopniu co nv na pewno nie stracili by na tym, w czasie kryzysu tej firmy zaczęli prowadzić politekę uległa zamiast agresywnie iść do przodu sutyacja w zasadzie zmieniła się dopiero od serii hd4
Ale poszli w inną stronę, woleli stworzyć coś nowego (ATi), i wydajnościowo nie zachwycało... inaczej nie dało się tego zrobić bo musieliby projektować równolegle 2 różne chipsety.
Teraz podobnie nVidia postępuje, dlatego mocno w grach nie odskoczy - a też mogli rozwinąć poprzednią architekturę tak żeby w grach zmasakrowała ATi... jak widać również nie stać ich było na 2 równoległe zaawansowane projekty - a zwlekając z wejściem w architektórę podobną do Radeona byłoby samobójstwem - bo ATi by odskoczyło technologicznie (mimo mniejszej wydajności w grach).
DOWN: jak można oczernić kogoś, kto sam siebie oczernia każdą wypowiedzią? Taka drobna uwaga.
to zabrzmi głupio ale ati przed premierą serii8 nv mieli wyrażną przewagę technologiczną, pierwszy układ garficzny z unifikowanymi shaderami, pierwsza technologia obliczeń równoległych na gpu wystarczyło to sklecić w jedną całość i mieli by karty na poziomie podbnym co oferowały gf z serii8 i napewno nie stracili by tak dużo rynku, a same technologie mogli rozwijać dalej i promowac je chociaż w podobnym stopniu co nv na pewno nie stracili by na tym, w czasie kryzysu tej firmy zaczęli prowadzić politekę uległa zamiast agresywnie iść do przodu sutyacja w zasadzie zmieniła się dopiero od serii hd4
A to PhysX da się zdetronizować... znaczy się Twoim zdaniem króluje? Czyli w większości tytułów jest zaimplementowany?
Jak już kiedyś pisałem, nie wazne co się wie, ale jeśli będzie się przekazywało tą wiedze w sposób na idiotę (na SulacO?), to równie dobrze można by mówić głupoty, dlatego nie dziwię się że nikt nie chce z nim dyskutować, albo robi to na równie niskim poziomie. Również nie dociera do niego nic co mówią inni - więc po co mu cokolwiek udowadniać, dużo przyjemniej takiemu komuś cały czas pisać ze jest w błędzie nawet jak nie jest, co jest błędem, bo lepiej takiego kogoś ignorować. Ja nie widzę sensu obalenia czegokolwiek co powiedział SulacO, bo jego treść i sposób przekazania tego samo obala jego wypowiedz. Zatem prawdziwa wiedza sama się nie obroni jak się ją jak debil przekazuje. A co do zagotowania - jesli ktoś robi to specjalnie, albo wierzy w to co mówi, to na nic żadne dowody, wiedza, bo ten ktoś żyje we walsnym świecie i na pewno nie uda się go zagotować, bo by to zrobić wpierw trzeba by mu cos udowodnić, a tutaj wkraczamy w błędne koło bo ten ktoś zyje we własnym świecie więc jak mu coś udowodnić?
Nikomu nie spamowałem na privie... Do Sulaco napisałem 2 wiadomości bez żadnych wyzwisk czy czegoś podobnego. Sam link do bencha i prawdopodobnych specyfikacji GTX470 bo na forum napisał jakoby GTX480 będzie miał rdzeń 750mhz co było nie prawdą wiec chciałem wiedzieć skąd wzioł te dane... I za to człowiek ma bana a jego działania są zacierane...
Hm, dostałeś bana, taki ban zazwyczaj ma uzasadnienie, przeczytaj je bo być moze w miedzyczasie nabroiłeś i bezpodstawnie oczerniasz SulacO.
Jesli chodzi o 'kółko zdoracji' i SulacO:
Psychologia powszechnie uznaje zjawisko tzw. projekcji czyli tgz. 'narcystyczny mechanizm obronny' który przedstawia wady własnej osobowości, własnego zachowania jako zachowanie innych, trudno przebić sie przez bariery utworzone w ten sposób, niektórzy nazywają to klapkami na oczach.
Teraz konkrety, czy ktokolwiek z was(poza nielicznymi wyjątkami) uzasadnił, obalił treści z którymi polemizował SulacO? Prawdziwa wiedza, fakty, bronią się same, żadna manipulacja z nimi nie wygra. Warto używać wiedzy by rozmówca zagotował się sam, a nie obelg.
Wolałbym jednak się w to nie wdawać bo moja dziewczyna określa to mianem 'wkręcania' komuś czegoś czego nie myśli. Co mnie cholernie denerwuje bo nie sposób pogadać normalnie... Mniejsza o to, gdyby wszyscy reagowali na 'argumenty' argumentami a nie rozpoczynali dyskusji o dyskutantach świat byłby lepszy.
W gruncie rzeczy w świetle argumentów innych mysle ze SulacO ma racje, ale częściowo i na podstawie tego co pisał zdaje sobie z tego sprawe, jasno to pisze.(podatek od technologii w grach, kartach NVidii)
Być moze tylko pozornie PhysX jest darmowe, a zmiany płatne, trudno ocenić ostateczny rozrachunek. Czy w studiach programistów tworzących gre istnieje konieczność dokonywania zmian w silniku, czy w realnych pracach muszą płacić NVidii czy nie...teoria teorią ale liczy się praktyka. Niewielu z komentujących jest w stanie samodzielnie to ocenić.
Przypomina to analizowanie kosztów instalacji Linuxa na serwerach czy stanowiskach roboczych, niby za darmo, względem odpowiedników od MS, a realia...czy rzeczywiście utrzymanie takiego systemu jest za darmo?
W świetle wielu raportów ale i również na podstawie logicznego myślenia sądze ze nie jest to za darmo.
I w specyficznych zastosowaniach moze wychodzić nawet drozej...ze względu na konieczność zatrudniania administratorów z większą wiedzą i doświadczeniem, no i inaczej nie istniałyby firmy takie jak Canonical, Novel itp. Nic na świecie nie jest za darmo.
Jesli jest za darmo to znaczy że nic nie jest warte albo trzeba włożyć sporo trudu i czasu by było.
Trudno by NVidia otworzyła PhysX, nie tylko ze względu na ATI ale ze względu na konkurencje, np. Pixelux itp. którzy mogli by zwyczajnie zerżnąć rozwiązania zaimplementowane przez śp. Ageie.
ATI mogłoby zapłacić NVidii za licencje, od kilku lat mielibyśmy standard fizyki a tak czas ucieka.
Z drugiej strony ich decyzja może być zrozumiała..i nic nam do tego. To problem NVidii że ich technologia jest na wyłączność, producenci gier jakoś sobie poradzą.
Narazie karty graficzne są za liche by wziąść na siebie wszystkie obliczenia fizyczne, narzekanie ludu na spadek wydajności przy włączonym PhysX który obsługuje jedynie liście i kurz dobitnie o tym świadczy.
DOWN: jak można oczernić kogoś, kto sam siebie oczernia każdą wypowiedzią? Taka drobna uwaga.
Skrajnego fanatyzmu nie podzielam(wogóle żadnego), a ten się znajduje zarówno po stronie fanów nv i ati(ci drudzy troche lepiej się kamuflują).
taki mały przykład w komentarzu 12 napisałem że ati blokuje rozwój nie wprowadzając własnego standartu przez 2 lata i minusy się posypały a nikt nawet nie postawił kontrargumentu(nie był w stanie a może nie chciał rozpocząć rozmowy) jestem pewien że jak bym napisał że nv blokuje rozwój to w miejsce tych minusów same plusiki by się pojawiły.
Ja ci odpowiem - ATI nie ma 60%+ rynku by móc wprowadzać własne zamknięte standardy, również nie jest tak bogaty i nie ma tyle kasy, dlatego korzysta z rozwiązań trochę innych i nie swoich ale już znanych typu Havoc, bo własnych nie byłoby wstanie wypromować, a przynajmniej nie przez najbliższe kilkanaście lat - wystarczy zauważyć że to co Nvidia wypromowała w 3-4 lata ATI zajęłoby 8-12 lat, bo po prostu jest mniejsze i nie ma takiej sławy by na jej nazwę dostawać orgazmu czy czegoś, oraz nie kazdy kowalski ją zna i jej ufa w porównaniu do nvidii, oraz nie ma tyle kasy by płącić twórcom gier by to dawali do swoich gier.
coż ati nie ma 60% runku ale napewno nie jest mniejsze od nv , zapominasz o ich wielkim bracie amd napewno łatwiej im było wprowadzić swój własny standart zwłaszcze że od przemiery serii hd4 ich karty mają teoretycznie więcej mocy obliczeniowej niz konkurenci z nv. naprawde mieli dużo czasu by zobić coś w tym kierunku
Skrajnego fanatyzmu nie podzielam(wogóle żadnego), a ten się znajduje zarówno po stronie fanów nv i ati(ci drudzy troche lepiej się kamuflują).
taki mały przykład w komentarzu 12 napisałem że ati blokuje rozwój nie wprowadzając własnego standartu przez 2 lata i minusy się posypały a nikt nawet nie postawił kontrargumentu(nie był w stanie a może nie chciał rozpocząć rozmowy) jestem pewien że jak bym napisał że nv blokuje rozwój to w miejsce tych minusów same plusiki by się pojawiły.
Ja ci odpowiem - ATI nie ma 60%+ rynku by móc wprowadzać własne zamknięte standardy, również nie jest tak bogaty i nie ma tyle kasy, dlatego korzysta z rozwiązań trochę innych i nie swoich ale już znanych typu Havoc, bo własnych nie byłoby wstanie wypromować, a przynajmniej nie przez najbliższe kilkanaście lat - wystarczy zauważyć że to co Nvidia wypromowała w 3-4 lata Physx, który nadal ejst słabo wypromowany ale przynajmniej większość go zna) ATI zajęłoby 8-12 lat, bo po prostu jest mniejsze i nie ma takiej sławy by na jej nazwę dostawać orgazmu czy czegoś, oraz nie każdy kowalski ją zna i jej ufa w porównaniu do nvidii, oraz nie ma tyle kasy by płacić twórcom gier by to dawali to do swoich gier. Dlatego ATI nie blokuje rozwoju tylko idzie inną ścieżka na którą ma możliwości, co innego gdyby mogła, miała mozliwosć, ale powiedziała NIET! bo nie.
Nikomu nie spamowałem na privie... Do Sulaco napisałem 2 wiadomości bez żadnych wyzwisk czy czegoś podobnego. Sam link do bencha i prawdopodobnych specyfikacji GTX470 bo na forum napisał jakoby GTX480 będzie miał rdzeń 750mhz co było nie prawdą wiec chciałem wiedzieć skąd wzioł te dane... I za to człowiek ma bana a jego działania są zacierane...