Bruno nie porozmawiasz z ślepcem o pogodzie.
To tyle w temacie. Sulac0 nie chce zauważyć żadnej zalety u innej firmy niż nVidia. Wniosek z tego może być tylko jeden.
Racja GandalfG, dlatego zaczynam pomijac jego posty.
Szkoda tylko, ze moderatorzy nie reaguja jak wiekszosc czytajacych forum zwraca uwage, ze fanbojuje.
to co wyczynicie jest sraszne kłócicie się o dwie pierdoły która jedna jest i działa jak chce i drugą pierdołe której nawet jeszcze nie ma, to mi zaczyna przypominać dyskusje o wyższości fermiego nad hd5870 (żeby mnie o stronniczość nikt nie posądzał to w dugą stronę jest tak samo)
A ja tak z ciekawości zapytam... po co dyskutujecie z 'wszechwiedzącymi'? W końcu oni mają zawsze rację bez względu na sytuację - karty AMD nie mają nic i w ogóle to gówno, a nvidia jest dla nich doskonała w każdym calu, więc i tak nie przebijecie ich swoimi wyssanymi z internetowego palca dowodami
Wiesz Amitoza my to wiemy, ale inni, szczegolnie nowi uzytkownicy moga sie 'naciac' na tego typu wypowiedzi szczegolnie w tematach dotyczacych zakupu karty.
Jak wczesniej wspomnialem pozostaje nadzieja, ze moderatorzy to wylapia.
Moderatorzy nie byliby potrzebni bo wystarczy tylko trochę myślenia i po prostu takich ludzi IGNOROWAĆ, z idiotami nie da się inaczej. Natomiast tutaj każdy z dumą odpowiada takiemu fanboyowi jak Sulac0, przez co go nakręcacie do dalszego pisania informacji i opinii ze swojego małego, zamkniętego(!) świata w którym żyje. Zatem zamiast narzekać na moderatorów (którzy i tak mogli by coś zrobić) zacznijcie tego człowieka ignorować poprzez dodanie go do listy ignorowanych, zaminusowanie go i proste nieodpowiadanie. Kiedy nikt mu nie będzie odpowiadał jaki cel będzie miało jego pisanie? Najwyżej taki ze ludzie się z niego pośmieją i zobaczą że wszyscy go olewają jak jakieś dziecko którym zresztą jest, również nowi czytelnicy nie powinni mieć problemu bo raczej nie będą wierzyć komuś kto ma wszystkie wypowiedzi zaminusowane... Niestety nie chciałem tego pisać bo tym samym sam sobie przeczę bo właśnie piszę o nim, czego nie chciałem, ale jak widzę ile osób z chęcią zniża się do jego poziomu, po czym oczywiście z kretesem zostaje zmiażdżonym przez doświadczenie, to po prostu nie wytrzymałem. Przestańcie mu pisać, on jest gorszy od cyrixa, co powinno mu dać do myślenia że osiągnął już dawno dno i powinien zamilknąć, czego nie zrobi, bo tak by zrobiło typowe rozwydrzone dziecko w takiej dyskusji i tyle w tym temacie, cyrixa zaczynam coraz rzadziej widywac, bo ludzie przestali mu odpisywać w większości, choć nadal zdarzają się geniusze którzy starają się z nim dyskutować, ale jak się chce to można.
Żeby nie pisać nie na temat - fajnie że coś takiego powstaje, ale poczekam na gry które to wykorzystają to wtedy to ocenie, bo póki co marketing i takie tam.
To że możesz ściągnąć za darmo SDK nie oznacza że Physix jest darmowy. Na stronie nVidia wyraźnie napisali że w celu komercyjnego wykorzystania musisz się kontaktować z ich działem sprzedaży.
Bzdury gadasz - PhysX jest darmowy zarówno do komercyjnych jak i niekomercyjnych projektów:
'The NVIDIA binary PhysX SDK is 100% free for both commercial and non-commercial use and is available for immediate download by registered PhysX developers.'
Dostęp do źródeł implementacji (żeby modyfikować PhysX do własnych zastosowań) jest jednak płatny (ale mało kto tego potrzebuje). Część cytatu Twojego która o tym mówi:
'NVIDIA offers a support plan and a paid license program which enables developers to modify the SDK to suit their needs.'
GandalfG @ 2010.03.09 10:28
Cena za licencję wynosi 50 000$ na każdą platformę osobno (PC, PS3, Xbox360, Wii, WiiWare).
Tak za dostęp do źródeł i pomoc techniczną tyle się płaci - jednak zarówno na PC, jak i na konsole (np. na ps3 każdy programista (który kupił devkit) może ściągnąć binarną wersję sdk physX ze stron sony za darmo) jest za darmo.
GandalfG @ 2010.03.09 10:28
Zauważ że żadna firma produkująca chipy graficzne czy CPU nie weszła w współpracę z nVidia w temacie Physix. Tak naprawdę to nikt nie poszedł za nVidia.
Wiesz dlaczego ?
Dlatego bo tylko Amd mogło mieć z tego zysk (żaden producent CPU nie potrzebuje, bo nVidia udostępnia implementację na procesory (intel dodatkowo ma Havok), a z GPU zdolnych do obliczeń fizyki pozostaje tylko nVidia i AMD), ale woleli spowolnić rynek niż zrobić własną implementację.
GandalfG @ 2010.03.09 10:28
Inna sprawa że to co oferuje Bullet bije cała konkurencję jakością i realnością efektów. Bez problemów wykorzystasz go w programach takich jak Maya, Blender, Lightwave, Cinema4D itp. Bullet jest dojrzałym i sprawdzonym rozwiązaniem. Długo już agnieżdżonym na rynku mającym dobrą opinię i co ważne można go używać na każdej platformie sprzętowej.
Zanim zaczniesz krytykować Open Physic za to że nie jest od nVidia, pomyśl chwilę co wszyscy gracze - nie tylko ci posiadający karty nVidia mogą skorzystać na otwartym standardzie fizyki w grach.
Bullet niestety nie bije jakością i realnością ani PhysX, ani tym bardziej Havok. Możliwościami póki co tez bardzo odstaje, ale szybko się rozwija.
Co do programów:
Blender - wykorzystuje własne symulacje fizyki (symulacje wody, ognia, ciuchów, ciał miękkich), a Bullet jest tylko w Blender Game Engine (do ciał sztywnych, i od niedawna ciał miękkich (ale to nie tą wykorzystuje blender do renderingu)).
Maya nie obsługuje Bullet - obsługę dodaje zewnętrzny plugin Dynamica (ale był stosowany przy np. Bolt).
Lightwave nie obsługuje Bullet - będzie obsługiwać go nowa wersja Lightwave Core która jest całkowicie przepisanym programem i z założenia wieloplatformowym (PhysX na Linuksie działa słabo, a Havok jest drogi, to wybór padł na Bullet).
Cinema 4D w najnowszej wersji faktycznie korzysta z Bullet - ale tylko ciała sztywne.
Bullet faktycznie jest uznanym i sprawdzonym silnikiem (m.in. sprawdzanym i popularyzowanym przez nVidię, bo zanim odpowiedziała na zakup Havoka przez Intela kupnem PhysX, sami wykorzystywali Bullet w swoich projektach (zresztą do niedawna)), jednak opinię na temat Bullet są dobre i stawiają go na trzecim miejscu za Havok i PhysX (możliwości (brak oficjalnie symulacji płynów, dopiero kilka dni temu dostał możliwość rozwalania siatek na kawałeczki...) i czasami niestabilne działanie obiektów na scenie, nie pozwalają póki co wybić mu się wyżej).
Bruno@Home @ 2010.03.09 10:30
Skoti48 Powyzej masz opisana bardzo prostym jezykiem ocene sytuacji ze strony Richarda Huddego.
Nic dodac, nic ujac.
Tak wyraża jego zdanie, tylko jego zdanie jest bardzo stronnicze i ogranicza się na tym, że nVidia im nie dała implementacji to olewają (chcieliby jeśli dostaliby na tacy).
Tylko co najbardziej mnie wkurza że taki Sulaco wszędzie się wepchnie i oczerni AMD. Na forum jest pełno użytkowników którzy się nie znają na rzeczy i tam udziela się właśnie Sulaco. Ja nie mam dostępu bo dostałem bana za poprawianie tego idioty. Ostatnio mu przesłałem link na priw z benchem do GTX470 to po paru minutach bana dostałem... Do innych pisałem i nic a do Sulaco napisałem i od razu ban ... Sulaco trzyma z Vegą i jego podobnymi i nic się nie zrobi w tej kwestii... Jak napisałem wcześniej ma plecy i jest do tego konfidentem. A parenaście postów wyżej napisał że to my tworzymy kółeczko wspólnej adoracji... ŻAŁOSNE
Tylko co najbardziej mnie wkurza że taki Sulaco wszędzie się wepchnie i oczerni AMD. Na forum jest pełno użytkowników którzy się nie znają na rzeczy i tam udziela się właśnie Sulaco. Ja nie mam dostępu bo dostałem bana za poprawianie tego idioty. Ostatnio mu przesłałem link na priw z benchem do GTX470 to po paru minutach bana dostałem... Do innych pisałem i nic a do Sulaco napisałem i od razu ban ... Sulaco trzyma z Vegą i jego podobnymi i nic się nie zrobi w tej kwestii... Jak napisałem wcześniej ma plecy i jest do tego konfidentem. A parenaście postów wyżej napisał że to my tworzymy kółeczko wspólnej adoracji... ŻAŁOSNE
Nie żebym miał objekcje, ale bana dostałeś prawdopodobnie za spamowanie ludziom na privie.
A Vega to w zależności od opinii różnych userów jest pro nvidia lub pro amd Zdecydujcie się wreszcie. haha. ;]
Tylko co najbardziej mnie wkurza że taki Sulaco wszędzie się wepchnie i oczerni AMD. Na forum jest pełno użytkowników którzy się nie znają na rzeczy i tam udziela się właśnie Sulaco. Ja nie mam dostępu bo dostałem bana za poprawianie tego idioty. Ostatnio mu przesłałem link na priw z benchem do GTX470 to po paru minutach bana dostałem... Do innych pisałem i nic a do Sulaco napisałem i od razu ban ... Sulaco trzyma z Vegą i jego podobnymi i nic się nie zrobi w tej kwestii... Jak napisałem wcześniej ma plecy i jest do tego konfidentem. A parenaście postów wyżej napisał że to my tworzymy kółeczko wspólnej adoracji... ŻAŁOSNE
Skrajnego fanatyzmu nie podzielam(wogóle żadnego), a ten się znajduje zarówno po stronie fanów nv i ati(ci drudzy troche lepiej się kamuflują).
taki mały przykład w komentarzu 12 napisałem że ati blokuje rozwój nie wprowadzając własnego standartu przez 2 lata i minusy się posypały a nikt nawet nie postawił kontrargumentu(nie był w stanie a może nie chciał rozpocząć rozmowy) jestem pewien że jak bym napisał że nv blokuje rozwój to w miejsce tych minusów same plusiki by się pojawiły.
Historia mojego bana jest bardzo ciekawa... Sulaco i Vega zaczeli jechać po ATi w temacie HD5850/5870/5970. MaxForces rzucił jakimś screenem i dopatrzył się niby spadku IQ na nowych sterach. Vega coś tam na screenie zauważył niby a ja napisałem czy nosi okulary i ile dioptrii. Chciałem wiedzieć czy jest krótko wzroczny czy daleko... Potem moje posty zostały usunięte a bana mam od 24 lutego... i tak będzie do zawsze myślę Więc Vega AKA Piotr Gontarczyk jest dla mnie skończonym dupkiem.
Nikomu nie spamowałem na privie... Do Sulaco napisałem 2 wiadomości bez żadnych wyzwisk czy czegoś podobnego. Sam link do bencha i prawdopodobnych specyfikacji GTX470 bo na forum napisał jakoby GTX480 będzie miał rdzeń 750mhz co było nie prawdą wiec chciałem wiedzieć skąd wzioł te dane... I za to człowiek ma bana a jego działania są zacierane...
Tylko co najbardziej mnie wkurza że taki Sulaco wszędzie się wepchnie i oczerni AMD. Na forum jest pełno użytkowników którzy się nie znają na rzeczy i tam udziela się właśnie Sulaco. Ja nie mam dostępu bo dostałem bana za poprawianie tego idioty. Ostatnio mu przesłałem link na priw z benchem do GTX470 to po paru minutach bana dostałem... Do innych pisałem i nic a do Sulaco napisałem i od razu ban ... Sulaco trzyma z Vegą i jego podobnymi i nic się nie zrobi w tej kwestii... Jak napisałem wcześniej ma plecy i jest do tego konfidentem. A parenaście postów wyżej napisał że to my tworzymy kółeczko wspólnej adoracji... ŻAŁOSNE
Skrajnego fanatyzmu nie podzielam(wogóle żadnego), a ten się znajduje zarówno po stronie fanów nv i ati(ci drudzy troche lepiej się kamuflują).
taki mały przykład w komentarzu 12 napisałem że ati blokuje rozwój nie wprowadzając własnego standartu przez 2 lata i minusy się posypały a nikt nawet nie postawił kontrargumentu(nie był w stanie a może nie chciał rozpocząć rozmowy) jestem pewien że jak bym napisał że nv blokuje rozwój to w miejsce tych minusów same plusiki by się pojawiły.
Ja ci odpowiem - ATI nie ma 60%+ rynku by móc wprowadzać własne zamknięte standardy, również nie jest tak bogaty i nie ma tyle kasy, dlatego korzysta z rozwiązań trochę innych i nie swoich ale już znanych typu Havoc, bo własnych nie byłoby wstanie wypromować, a przynajmniej nie przez najbliższe kilkanaście lat - wystarczy zauważyć że to co Nvidia wypromowała w 3-4 lata Physx, który nadal ejst słabo wypromowany ale przynajmniej większość go zna) ATI zajęłoby 8-12 lat, bo po prostu jest mniejsze i nie ma takiej sławy by na jej nazwę dostawać orgazmu czy czegoś, oraz nie każdy kowalski ją zna i jej ufa w porównaniu do nvidii, oraz nie ma tyle kasy by płacić twórcom gier by to dawali to do swoich gier. Dlatego ATI nie blokuje rozwoju tylko idzie inną ścieżka na którą ma możliwości, co innego gdyby mogła, miała mozliwosć, ale powiedziała NIET! bo nie.
Skrajnego fanatyzmu nie podzielam(wogóle żadnego), a ten się znajduje zarówno po stronie fanów nv i ati(ci drudzy troche lepiej się kamuflują).
taki mały przykład w komentarzu 12 napisałem że ati blokuje rozwój nie wprowadzając własnego standartu przez 2 lata i minusy się posypały a nikt nawet nie postawił kontrargumentu(nie był w stanie a może nie chciał rozpocząć rozmowy) jestem pewien że jak bym napisał że nv blokuje rozwój to w miejsce tych minusów same plusiki by się pojawiły.
Ja ci odpowiem - ATI nie ma 60%+ rynku by móc wprowadzać własne zamknięte standardy, również nie jest tak bogaty i nie ma tyle kasy, dlatego korzysta z rozwiązań trochę innych i nie swoich ale już znanych typu Havoc, bo własnych nie byłoby wstanie wypromować, a przynajmniej nie przez najbliższe kilkanaście lat - wystarczy zauważyć że to co Nvidia wypromowała w 3-4 lata ATI zajęłoby 8-12 lat, bo po prostu jest mniejsze i nie ma takiej sławy by na jej nazwę dostawać orgazmu czy czegoś, oraz nie kazdy kowalski ją zna i jej ufa w porównaniu do nvidii, oraz nie ma tyle kasy by płącić twórcom gier by to dawali do swoich gier.
coż ati nie ma 60% runku ale napewno nie jest mniejsze od nv , zapominasz o ich wielkim bracie amd napewno łatwiej im było wprowadzić swój własny standart zwłaszcze że od przemiery serii hd4 ich karty mają teoretycznie więcej mocy obliczeniowej niz konkurenci z nv. naprawde mieli dużo czasu by zobić coś w tym kierunku
Tyle że AMD przynosi jak na razie straty więc bym rzekł ze większe szanse miałoby samo ATI niż ATI + AMD... Więc jakby chcieli coś zrobić to raczej dopiero teraz mogliby zacząć, ale to już byłoby zbyt późno, bo samo zrobienie tego trwa, a wypromowanie tym bardziej, więc muszą to zrobić w trochę inny sposób czyli OpenCL i takie tam. No i jednak ATI jest mniejsze od Nvidia, wystarczy zobaczyć że nvidia wydaje już 'własne' marne komputery , więcej osób u nich pracuje i nie musi minimalizować strat AMD ;]
DOWN: jak można oczernić kogoś, kto sam siebie oczernia każdą wypowiedzią? Taka drobna uwaga.
Historia mojego bana jest bardzo ciekawa... Sulaco i Vega zaczeli jechać po ATi w temacie HD5850/5870/5970. MaxForces rzucił jakimś screenem i dopatrzył się niby spadku IQ na nowych sterach. Vega coś tam na screenie zauważył niby a ja napisałem czy nosi okulary i ile dioptrii. Chciałem wiedzieć czy jest krótko wzroczny czy daleko... Potem moje posty zostały usunięte a bana mam od 24 lutego... i tak będzie do zawsze myślę Więc Vega AKA Piotr Gontarczyk jest dla mnie skończonym dupkiem.
Nikomu nie spamowałem na privie... Do Sulaco napisałem 2 wiadomości bez żadnych wyzwisk czy czegoś podobnego. Sam link do bencha i prawdopodobnych specyfikacji GTX470 bo na forum napisał jakoby GTX480 będzie miał rdzeń 750mhz co było nie prawdą wiec chciałem wiedzieć skąd wzioł te dane... I za to człowiek ma bana a jego działania są zacierane...
Hm, dostałeś bana, taki ban zazwyczaj ma uzasadnienie, przeczytaj je bo być moze w miedzyczasie nabroiłeś i bezpodstawnie oczerniasz SulacO.
Jesli chodzi o 'kółko zdoracji' i SulacO:
Psychologia powszechnie uznaje zjawisko tzw. projekcji czyli tgz. 'narcystyczny mechanizm obronny' który przedstawia wady własnej osobowości, własnego zachowania jako zachowanie innych, trudno przebić sie przez bariery utworzone w ten sposób, niektórzy nazywają to klapkami na oczach.
Teraz konkrety, czy ktokolwiek z was(poza nielicznymi wyjątkami) uzasadnił, obalił treści z którymi polemizował SulacO? Prawdziwa wiedza, fakty, bronią się same, żadna manipulacja z nimi nie wygra. Warto używać wiedzy by rozmówca zagotował się sam, a nie obelg.
Wolałbym jednak się w to nie wdawać bo moja dziewczyna określa to mianem 'wkręcania' komuś czegoś czego nie myśli. Co mnie cholernie denerwuje bo nie sposób pogadać normalnie... Mniejsza o to, gdyby wszyscy reagowali na 'argumenty' argumentami a nie rozpoczynali dyskusji o dyskutantach świat byłby lepszy.
W gruncie rzeczy w świetle argumentów innych mysle ze SulacO ma racje, ale częściowo i na podstawie tego co pisał zdaje sobie z tego sprawe, jasno to pisze.(podatek od technologii w grach, kartach NVidii)
Być moze tylko pozornie PhysX jest darmowe, a zmiany płatne, trudno ocenić ostateczny rozrachunek. Czy w studiach programistów tworzących gre istnieje konieczność dokonywania zmian w silniku, czy w realnych pracach muszą płacić NVidii czy nie...teoria teorią ale liczy się praktyka. Niewielu z komentujących jest w stanie samodzielnie to ocenić.
Przypomina to analizowanie kosztów instalacji Linuxa na serwerach czy stanowiskach roboczych, niby za darmo, względem odpowiedników od MS, a realia...czy rzeczywiście utrzymanie takiego systemu jest za darmo?
W świetle wielu raportów ale i również na podstawie logicznego myślenia sądze ze nie jest to za darmo.
I w specyficznych zastosowaniach moze wychodzić nawet drozej...ze względu na konieczność zatrudniania administratorów z większą wiedzą i doświadczeniem, no i inaczej nie istniałyby firmy takie jak Canonical, Novel itp. Nic na świecie nie jest za darmo.
Jesli jest za darmo to znaczy że nic nie jest warte albo trzeba włożyć sporo trudu i czasu by było.
Trudno by NVidia otworzyła PhysX, nie tylko ze względu na ATI ale ze względu na konkurencje, np. Pixelux itp. którzy mogli by zwyczajnie zerżnąć rozwiązania zaimplementowane przez śp. Ageie.
ATI mogłoby zapłacić NVidii za licencje, od kilku lat mielibyśmy standard fizyki a tak czas ucieka.
Z drugiej strony ich decyzja może być zrozumiała..i nic nam do tego. To problem NVidii że ich technologia jest na wyłączność, producenci gier jakoś sobie poradzą.
Narazie karty graficzne są za liche by wziąść na siebie wszystkie obliczenia fizyczne, narzekanie ludu na spadek wydajności przy włączonym PhysX który obsługuje jedynie liście i kurz dobitnie o tym świadczy.
Stanley
Jak już kiedyś pisałem, nie wazne co się wie, ale jeśli będzie się przekazywało tą wiedze w sposób na idiotę (na SulacO?), to równie dobrze można by mówić głupoty, dlatego nie dziwię się że nikt nie chce z nim dyskutować, albo robi to na równie niskim poziomie. Również nie dociera do niego nic co mówią inni - więc po co mu cokolwiek udowadniać, dużo przyjemniej takiemu komuś cały czas pisać ze jest w błędzie nawet jak nie jest, co jest błędem, bo lepiej takiego kogoś ignorować. Ja nie widzę sensu obalenia czegokolwiek co powiedział SulacO, bo jego treść i sposób przekazania tego samo obala jego wypowiedz. Zatem prawdziwa wiedza sama się nie obroni jak się ją jak debil przekazuje. A co do zagotowania - jesli ktoś robi to specjalnie, albo wierzy w to co mówi, to na nic żadne dowody, wiedza, bo ten ktoś żyje we walsnym świecie i na pewno nie uda się go zagotować, bo by to zrobić wpierw trzeba by mu cos udowodnić, a tutaj wkraczamy w błędne koło bo ten ktoś zyje we własnym świecie więc jak mu coś udowodnić?
Tyle że AMD przynosi jak na razie straty więc bym rzekł ze większe szanse miałoby samo ATI niż ATI + AMD... Więc jakby chcieli coś zrobić to raczej dopiero teraz mogliby zacząć, ale to już byłoby zbyt późno, bo samo zrobienie tego trwa, a wypromowanie tym bardziej, więc muszą to zrobić w trochę inny sposób czyli OpenCL i takie tam. No i jednak ATI jest mniejsze od Nvidia, wystarczy zobaczyć że nvidia wydaje już 'własne' marne komputery , więcej osób u nich pracuje i nie musi minimalizować strat AMD ;]
DOWN: jak można oczernić kogoś, kto sam siebie oczernia każdą wypowiedzią? Taka drobna uwaga.
to zabrzmi głupio ale ati przed premierą serii8 nv mieli wyrażną przewagę technologiczną, pierwszy układ garficzny z unifikowanymi shaderami, pierwsza technologia obliczeń równoległych na gpu wystarczyło to sklecić w jedną całość i mieli by karty na poziomie podbnym co oferowały gf z serii8 i napewno nie stracili by tak dużo rynku, a same technologie mogli rozwijać dalej i promowac je chociaż w podobnym stopniu co nv na pewno nie stracili by na tym, w czasie kryzysu tej firmy zaczęli prowadzić politekę uległa zamiast agresywnie iść do przodu sutyacja w zasadzie zmieniła się dopiero od serii hd4
to zabrzmi głupio ale ati przed premierą serii8 nv mieli wyrażną przewagę technologiczną, pierwszy układ garficzny z unifikowanymi shaderami, pierwsza technologia obliczeń równoległych na gpu wystarczyło to sklecić w jedną całość i mieli by karty na poziomie podbnym co oferowały gf z serii8 i napewno nie stracili by tak dużo rynku, a same technologie mogli rozwijać dalej i promowac je chociaż w podobnym stopniu co nv na pewno nie stracili by na tym, w czasie kryzysu tej firmy zaczęli prowadzić politekę uległa zamiast agresywnie iść do przodu sutyacja w zasadzie zmieniła się dopiero od serii hd4
Ale poszli w inną stronę, woleli stworzyć coś nowego (ATi), i wydajnościowo nie zachwycało... inaczej nie dało się tego zrobić bo musieliby projektować równolegle 2 różne chipsety.
Teraz podobnie nVidia postępuje, dlatego mocno w grach nie odskoczy - a też mogli rozwinąć poprzednią architekturę tak żeby w grach zmasakrowała ATi... jak widać również nie stać ich było na 2 równoległe zaawansowane projekty - a zwlekając z wejściem w architektórę podobną do Radeona byłoby samobójstwem - bo ATi by odskoczyło technologicznie (mimo mniejszej wydajności w grach).
Więc jakby chcieli coś zrobić to raczej dopiero teraz mogliby zacząć, ale to już byłoby zbyt późno, bo samo zrobienie tego trwa, a wypromowanie tym bardziej, więc muszą to zrobić w trochę inny sposób czyli OpenCL i takie tam.
Amd jest wystarczająco dużą firmą, a wcale nie musi tworzyć swojego standardu tylko zaimplementować istniejący już wypromowany (lub chociaż pomóc przy rozwoju takich tak jak Bullet, a nie tylko mówienia, że ich karty będą obsługiwać Bullet, i czekać, aż samo się zrobi). Co do OpenCL to też nie jest to sposób Amd, tylko przymus, który postawili przed Amd Apple i nVidia (Apple razem z nVidią ustaliły standard (szefem prac nad OpenCL był wiceprezes nVidii)) i żeby karty AMD były wkładane do kompów z MacOS ich karty muszą obsługiwać OpenCL.
sevae @ 2010.03.09 12:14
skoti48 @ 2010.03.09 07:40
Do osób wieszczących szybką detronizację PhysX
A to PhysX da się zdetronizować... znaczy się Twoim zdaniem króluje? Czyli w większości tytułów jest zaimplementowany?
Liczby nie kłamią - PhysX jest najpopularniejszym silnikiem fizyki, Havok jest drugi względem popularności, a Bullet jest trzecim silnikiem fizyki względem popularności - ofc nie wszystkie gry z physx korzystają z GPU, ale zmiana silnika nawet jeśli korzysta tylko z CPU na inny musi mieć jakieś uzasadnienie i na pewno nie będzie to przejście z dnia na dzień.
Więc jakby chcieli coś zrobić to raczej dopiero teraz mogliby zacząć, ale to już byłoby zbyt późno, bo samo zrobienie tego trwa, a wypromowanie tym bardziej, więc muszą to zrobić w trochę inny sposób czyli OpenCL i takie tam.
Amd jest wystarczająco dużą firmą, a wcale nie musi tworzyć swojego standardu tylko zaimplementować istniejący już wypromowany (lub chociaż pomóc przy rozwoju takich tak jak Bullet, a nie tylko mówienia, że ich karty będą obsługiwać Bullet, i czekać, aż samo się zrobi). Co do OpenCL to też nie jest to sposób Amd, tylko przymus, który postawili przed Amd Apple i nVidia (Apple razem z nVidią ustaliły standard (szefem prac nad OpenCL był wiceprezes nVidii)) i żeby karty AMD były wkładane do kompów z MacOS ich karty muszą obsługiwać OpenCL.
Oczywiście, też mi się nie podoba ze dużo mówią mniej robią, ale główny problem to zrobienie własnego standardu - ja uważam ze ATI nie miałoby szans na zrobienie i wypromowanie tego, bo nawet nvidii średnio to wyszło kilka lat promocji a kilka gier na krzyż, dlatego zostaje tylko czekać aż ati zrobi to co mówi, bo nie sztuką jest zrobić coś nowego, ale zrobić coś co się przyjmie, będzie łatwe i będzie u wszystkich dobrze działało - nvidia zrobiła coś nowego, trudnego i bez GTX285 nie można grać z physx i wysokimi detalami w sporą część gier które to obsługują, więc jeśli powstanie otwarty prosty standard dający duże możliwości to choć nie będzie t nic nowego to być moze przyjmie się na tyle że będzie w kazdej grze i będzie działać na każdej karcie.
Oczywiście, też mi się nie podoba ze dużo mówią mniej robią, ale główny problem to zrobienie własnego standardu - ja uważam ze ATI nie miałoby szans na zrobienie i wypromowanie tego, bo nawet nvidii średnio to wyszło kilka lat promocji a kilka gier na krzyż, dlatego zostaje tylko czekać aż ati zrobi to co mówi, bo nie sztuką jest zrobić coś nowego, ale zrobić coś co się przyjmie, będzie łatwe i będzie u wszystkich dobrze działało - nvidia zrobiła coś nowego, trudnego i bez GTX285 nie można grać z physx i wysokimi detalami w sporą część gier które to obsługują...
Średnio jak średnio - silnik jest najpopularniejszym silnikiem fizyki, więc wyszło im to dosyć dobrze - jedynie z obliczeniami GPU jest gorzej, bo fizyka musi działać i na kartach AMD (nie działa nić póki co więc musi być dostosowana do CPU więc nie ma sensu takiej fizyki na siłę wpychać na GPU skoro zadziała i na CPU).
Bruno nie porozmawiasz z ślepcem o pogodzie.
To tyle w temacie. Sulac0 nie chce zauważyć żadnej zalety u innej firmy niż nVidia. Wniosek z tego może być tylko jeden.
Racja GandalfG, dlatego zaczynam pomijac jego posty.
Szkoda tylko, ze moderatorzy nie reaguja jak wiekszosc czytajacych forum zwraca uwage, ze fanbojuje.
Wiesz Amitoza my to wiemy, ale inni, szczegolnie nowi uzytkownicy moga sie 'naciac' na tego typu wypowiedzi szczegolnie w tematach dotyczacych zakupu karty.
Jak wczesniej wspomnialem pozostaje nadzieja, ze moderatorzy to wylapia.
Żeby nie pisać nie na temat - fajnie że coś takiego powstaje, ale poczekam na gry które to wykorzystają to wtedy to ocenie, bo póki co marketing i takie tam.
To że możesz ściągnąć za darmo SDK nie oznacza że Physix jest darmowy. Na stronie nVidia wyraźnie napisali że w celu komercyjnego wykorzystania musisz się kontaktować z ich działem sprzedaży.
Bzdury gadasz - PhysX jest darmowy zarówno do komercyjnych jak i niekomercyjnych projektów:
'The NVIDIA binary PhysX SDK is 100% free for both commercial and non-commercial use and is available for immediate download by registered PhysX developers.'
Dostęp do źródeł implementacji (żeby modyfikować PhysX do własnych zastosowań) jest jednak płatny (ale mało kto tego potrzebuje). Część cytatu Twojego która o tym mówi:
'NVIDIA offers a support plan and a paid license program which enables developers to modify the SDK to suit their needs.'
Cena za licencję wynosi 50 000$ na każdą platformę osobno (PC, PS3, Xbox360, Wii, WiiWare).
Tak za dostęp do źródeł i pomoc techniczną tyle się płaci - jednak zarówno na PC, jak i na konsole (np. na ps3 każdy programista (który kupił devkit) może ściągnąć binarną wersję sdk physX ze stron sony za darmo) jest za darmo.
Zauważ że żadna firma produkująca chipy graficzne czy CPU nie weszła w współpracę z nVidia w temacie Physix. Tak naprawdę to nikt nie poszedł za nVidia.
Wiesz dlaczego ?
Dlatego bo tylko Amd mogło mieć z tego zysk (żaden producent CPU nie potrzebuje, bo nVidia udostępnia implementację na procesory (intel dodatkowo ma Havok), a z GPU zdolnych do obliczeń fizyki pozostaje tylko nVidia i AMD), ale woleli spowolnić rynek niż zrobić własną implementację.
Zanim zaczniesz krytykować Open Physic za to że nie jest od nVidia, pomyśl chwilę co wszyscy gracze - nie tylko ci posiadający karty nVidia mogą skorzystać na otwartym standardzie fizyki w grach.
Bullet niestety nie bije jakością i realnością ani PhysX, ani tym bardziej Havok. Możliwościami póki co tez bardzo odstaje, ale szybko się rozwija.
Co do programów:
Blender - wykorzystuje własne symulacje fizyki (symulacje wody, ognia, ciuchów, ciał miękkich), a Bullet jest tylko w Blender Game Engine (do ciał sztywnych, i od niedawna ciał miękkich (ale to nie tą wykorzystuje blender do renderingu)).
Maya nie obsługuje Bullet - obsługę dodaje zewnętrzny plugin Dynamica (ale był stosowany przy np. Bolt).
Lightwave nie obsługuje Bullet - będzie obsługiwać go nowa wersja Lightwave Core która jest całkowicie przepisanym programem i z założenia wieloplatformowym (PhysX na Linuksie działa słabo, a Havok jest drogi, to wybór padł na Bullet).
Cinema 4D w najnowszej wersji faktycznie korzysta z Bullet - ale tylko ciała sztywne.
Bullet faktycznie jest uznanym i sprawdzonym silnikiem (m.in. sprawdzanym i popularyzowanym przez nVidię, bo zanim odpowiedziała na zakup Havoka przez Intela kupnem PhysX, sami wykorzystywali Bullet w swoich projektach (zresztą do niedawna)), jednak opinię na temat Bullet są dobre i stawiają go na trzecim miejscu za Havok i PhysX (możliwości (brak oficjalnie symulacji płynów, dopiero kilka dni temu dostał możliwość rozwalania siatek na kawałeczki...) i czasami niestabilne działanie obiektów na scenie, nie pozwalają póki co wybić mu się wyżej).
Nic dodac, nic ujac.
Tak wyraża jego zdanie, tylko jego zdanie jest bardzo stronnicze i ogranicza się na tym, że nVidia im nie dała implementacji to olewają (chcieliby jeśli dostaliby na tacy).
Nie żebym miał objekcje, ale bana dostałeś prawdopodobnie za spamowanie ludziom na privie.
A Vega to w zależności od opinii różnych userów jest pro nvidia lub pro amd
Skrajnego fanatyzmu nie podzielam(wogóle żadnego), a ten się znajduje zarówno po stronie fanów nv i ati(ci drudzy troche lepiej się kamuflują).
taki mały przykład w komentarzu 12 napisałem że ati blokuje rozwój nie wprowadzając własnego standartu przez 2 lata i minusy się posypały a nikt nawet nie postawił kontrargumentu(nie był w stanie a może nie chciał rozpocząć rozmowy) jestem pewien że jak bym napisał że nv blokuje rozwój to w miejsce tych minusów same plusiki by się pojawiły.
Nikomu nie spamowałem na privie... Do Sulaco napisałem 2 wiadomości bez żadnych wyzwisk czy czegoś podobnego. Sam link do bencha i prawdopodobnych specyfikacji GTX470 bo na forum napisał jakoby GTX480 będzie miał rdzeń 750mhz co było nie prawdą wiec chciałem wiedzieć skąd wzioł te dane... I za to człowiek ma bana a jego działania są zacierane...
Skrajnego fanatyzmu nie podzielam(wogóle żadnego), a ten się znajduje zarówno po stronie fanów nv i ati(ci drudzy troche lepiej się kamuflują).
taki mały przykład w komentarzu 12 napisałem że ati blokuje rozwój nie wprowadzając własnego standartu przez 2 lata i minusy się posypały a nikt nawet nie postawił kontrargumentu(nie był w stanie a może nie chciał rozpocząć rozmowy) jestem pewien że jak bym napisał że nv blokuje rozwój to w miejsce tych minusów same plusiki by się pojawiły.
Ja ci odpowiem - ATI nie ma 60%+ rynku by móc wprowadzać własne zamknięte standardy, również nie jest tak bogaty i nie ma tyle kasy, dlatego korzysta z rozwiązań trochę innych i nie swoich ale już znanych typu Havoc, bo własnych nie byłoby wstanie wypromować, a przynajmniej nie przez najbliższe kilkanaście lat - wystarczy zauważyć że to co Nvidia wypromowała w 3-4 lata Physx, który nadal ejst słabo wypromowany ale przynajmniej większość go zna) ATI zajęłoby 8-12 lat, bo po prostu jest mniejsze i nie ma takiej sławy by na jej nazwę dostawać orgazmu czy czegoś, oraz nie każdy kowalski ją zna i jej ufa w porównaniu do nvidii, oraz nie ma tyle kasy by płacić twórcom gier by to dawali to do swoich gier. Dlatego ATI nie blokuje rozwoju tylko idzie inną ścieżka na którą ma możliwości, co innego gdyby mogła, miała mozliwosć, ale powiedziała NIET! bo nie.
Skrajnego fanatyzmu nie podzielam(wogóle żadnego), a ten się znajduje zarówno po stronie fanów nv i ati(ci drudzy troche lepiej się kamuflują).
taki mały przykład w komentarzu 12 napisałem że ati blokuje rozwój nie wprowadzając własnego standartu przez 2 lata i minusy się posypały a nikt nawet nie postawił kontrargumentu(nie był w stanie a może nie chciał rozpocząć rozmowy) jestem pewien że jak bym napisał że nv blokuje rozwój to w miejsce tych minusów same plusiki by się pojawiły.
Ja ci odpowiem - ATI nie ma 60%+ rynku by móc wprowadzać własne zamknięte standardy, również nie jest tak bogaty i nie ma tyle kasy, dlatego korzysta z rozwiązań trochę innych i nie swoich ale już znanych typu Havoc, bo własnych nie byłoby wstanie wypromować, a przynajmniej nie przez najbliższe kilkanaście lat - wystarczy zauważyć że to co Nvidia wypromowała w 3-4 lata ATI zajęłoby 8-12 lat, bo po prostu jest mniejsze i nie ma takiej sławy by na jej nazwę dostawać orgazmu czy czegoś, oraz nie kazdy kowalski ją zna i jej ufa w porównaniu do nvidii, oraz nie ma tyle kasy by płącić twórcom gier by to dawali do swoich gier.
coż ati nie ma 60% runku ale napewno nie jest mniejsze od nv , zapominasz o ich wielkim bracie amd napewno łatwiej im było wprowadzić swój własny standart zwłaszcze że od przemiery serii hd4 ich karty mają teoretycznie więcej mocy obliczeniowej niz konkurenci z nv. naprawde mieli dużo czasu by zobić coś w tym kierunku
DOWN: jak można oczernić kogoś, kto sam siebie oczernia każdą wypowiedzią? Taka drobna uwaga.
Nikomu nie spamowałem na privie... Do Sulaco napisałem 2 wiadomości bez żadnych wyzwisk czy czegoś podobnego. Sam link do bencha i prawdopodobnych specyfikacji GTX470 bo na forum napisał jakoby GTX480 będzie miał rdzeń 750mhz co było nie prawdą wiec chciałem wiedzieć skąd wzioł te dane... I za to człowiek ma bana a jego działania są zacierane...
Hm, dostałeś bana, taki ban zazwyczaj ma uzasadnienie, przeczytaj je bo być moze w miedzyczasie nabroiłeś i bezpodstawnie oczerniasz SulacO.
Jesli chodzi o 'kółko zdoracji' i SulacO:
Psychologia powszechnie uznaje zjawisko tzw. projekcji czyli tgz. 'narcystyczny mechanizm obronny' który przedstawia wady własnej osobowości, własnego zachowania jako zachowanie innych, trudno przebić sie przez bariery utworzone w ten sposób, niektórzy nazywają to klapkami na oczach.
Teraz konkrety, czy ktokolwiek z was(poza nielicznymi wyjątkami) uzasadnił, obalił treści z którymi polemizował SulacO? Prawdziwa wiedza, fakty, bronią się same, żadna manipulacja z nimi nie wygra. Warto używać wiedzy by rozmówca zagotował się sam, a nie obelg.
Wolałbym jednak się w to nie wdawać bo moja dziewczyna określa to mianem 'wkręcania' komuś czegoś czego nie myśli. Co mnie cholernie denerwuje bo nie sposób pogadać normalnie... Mniejsza o to, gdyby wszyscy reagowali na 'argumenty' argumentami a nie rozpoczynali dyskusji o dyskutantach świat byłby lepszy.
W gruncie rzeczy w świetle argumentów innych mysle ze SulacO ma racje, ale częściowo i na podstawie tego co pisał zdaje sobie z tego sprawe, jasno to pisze.(podatek od technologii w grach, kartach NVidii)
Być moze tylko pozornie PhysX jest darmowe, a zmiany płatne, trudno ocenić ostateczny rozrachunek. Czy w studiach programistów tworzących gre istnieje konieczność dokonywania zmian w silniku, czy w realnych pracach muszą płacić NVidii czy nie...teoria teorią ale liczy się praktyka. Niewielu z komentujących jest w stanie samodzielnie to ocenić.
Przypomina to analizowanie kosztów instalacji Linuxa na serwerach czy stanowiskach roboczych, niby za darmo, względem odpowiedników od MS, a realia...czy rzeczywiście utrzymanie takiego systemu jest za darmo?
W świetle wielu raportów ale i również na podstawie logicznego myślenia sądze ze nie jest to za darmo.
I w specyficznych zastosowaniach moze wychodzić nawet drozej...ze względu na konieczność zatrudniania administratorów z większą wiedzą i doświadczeniem, no i inaczej nie istniałyby firmy takie jak Canonical, Novel itp. Nic na świecie nie jest za darmo.
Jesli jest za darmo to znaczy że nic nie jest warte albo trzeba włożyć sporo trudu i czasu by było.
Trudno by NVidia otworzyła PhysX, nie tylko ze względu na ATI ale ze względu na konkurencje, np. Pixelux itp. którzy mogli by zwyczajnie zerżnąć rozwiązania zaimplementowane przez śp. Ageie.
ATI mogłoby zapłacić NVidii za licencje, od kilku lat mielibyśmy standard fizyki a tak czas ucieka.
Z drugiej strony ich decyzja może być zrozumiała..i nic nam do tego. To problem NVidii że ich technologia jest na wyłączność, producenci gier jakoś sobie poradzą.
Narazie karty graficzne są za liche by wziąść na siebie wszystkie obliczenia fizyczne, narzekanie ludu na spadek wydajności przy włączonym PhysX który obsługuje jedynie liście i kurz dobitnie o tym świadczy.
Jak już kiedyś pisałem, nie wazne co się wie, ale jeśli będzie się przekazywało tą wiedze w sposób na idiotę (na SulacO?), to równie dobrze można by mówić głupoty, dlatego nie dziwię się że nikt nie chce z nim dyskutować, albo robi to na równie niskim poziomie. Również nie dociera do niego nic co mówią inni - więc po co mu cokolwiek udowadniać, dużo przyjemniej takiemu komuś cały czas pisać ze jest w błędzie nawet jak nie jest, co jest błędem, bo lepiej takiego kogoś ignorować. Ja nie widzę sensu obalenia czegokolwiek co powiedział SulacO, bo jego treść i sposób przekazania tego samo obala jego wypowiedz. Zatem prawdziwa wiedza sama się nie obroni jak się ją jak debil przekazuje. A co do zagotowania - jesli ktoś robi to specjalnie, albo wierzy w to co mówi, to na nic żadne dowody, wiedza, bo ten ktoś żyje we walsnym świecie i na pewno nie uda się go zagotować, bo by to zrobić wpierw trzeba by mu cos udowodnić, a tutaj wkraczamy w błędne koło bo ten ktoś zyje we własnym świecie więc jak mu coś udowodnić?
A to PhysX da się zdetronizować... znaczy się Twoim zdaniem króluje? Czyli w większości tytułów jest zaimplementowany?
DOWN: jak można oczernić kogoś, kto sam siebie oczernia każdą wypowiedzią? Taka drobna uwaga.
to zabrzmi głupio ale ati przed premierą serii8 nv mieli wyrażną przewagę technologiczną, pierwszy układ garficzny z unifikowanymi shaderami, pierwsza technologia obliczeń równoległych na gpu wystarczyło to sklecić w jedną całość i mieli by karty na poziomie podbnym co oferowały gf z serii8 i napewno nie stracili by tak dużo rynku, a same technologie mogli rozwijać dalej i promowac je chociaż w podobnym stopniu co nv na pewno nie stracili by na tym, w czasie kryzysu tej firmy zaczęli prowadzić politekę uległa zamiast agresywnie iść do przodu sutyacja w zasadzie zmieniła się dopiero od serii hd4
to zabrzmi głupio ale ati przed premierą serii8 nv mieli wyrażną przewagę technologiczną, pierwszy układ garficzny z unifikowanymi shaderami, pierwsza technologia obliczeń równoległych na gpu wystarczyło to sklecić w jedną całość i mieli by karty na poziomie podbnym co oferowały gf z serii8 i napewno nie stracili by tak dużo rynku, a same technologie mogli rozwijać dalej i promowac je chociaż w podobnym stopniu co nv na pewno nie stracili by na tym, w czasie kryzysu tej firmy zaczęli prowadzić politekę uległa zamiast agresywnie iść do przodu sutyacja w zasadzie zmieniła się dopiero od serii hd4
Ale poszli w inną stronę, woleli stworzyć coś nowego (ATi), i wydajnościowo nie zachwycało... inaczej nie dało się tego zrobić bo musieliby projektować równolegle 2 różne chipsety.
Teraz podobnie nVidia postępuje, dlatego mocno w grach nie odskoczy - a też mogli rozwinąć poprzednią architekturę tak żeby w grach zmasakrowała ATi... jak widać również nie stać ich było na 2 równoległe zaawansowane projekty - a zwlekając z wejściem w architektórę podobną do Radeona byłoby samobójstwem - bo ATi by odskoczyło technologicznie (mimo mniejszej wydajności w grach).
Amd jest wystarczająco dużą firmą, a wcale nie musi tworzyć swojego standardu tylko zaimplementować istniejący już wypromowany (lub chociaż pomóc przy rozwoju takich tak jak Bullet, a nie tylko mówienia, że ich karty będą obsługiwać Bullet, i czekać, aż samo się zrobi). Co do OpenCL to też nie jest to sposób Amd, tylko przymus, który postawili przed Amd Apple i nVidia (Apple razem z nVidią ustaliły standard (szefem prac nad OpenCL był wiceprezes nVidii)) i żeby karty AMD były wkładane do kompów z MacOS ich karty muszą obsługiwać OpenCL.
A to PhysX da się zdetronizować... znaczy się Twoim zdaniem króluje? Czyli w większości tytułów jest zaimplementowany?
Liczby nie kłamią - PhysX jest najpopularniejszym silnikiem fizyki, Havok jest drugi względem popularności, a Bullet jest trzecim silnikiem fizyki względem popularności - ofc nie wszystkie gry z physx korzystają z GPU, ale zmiana silnika nawet jeśli korzysta tylko z CPU na inny musi mieć jakieś uzasadnienie i na pewno nie będzie to przejście z dnia na dzień.
Amd jest wystarczająco dużą firmą, a wcale nie musi tworzyć swojego standardu tylko zaimplementować istniejący już wypromowany (lub chociaż pomóc przy rozwoju takich tak jak Bullet, a nie tylko mówienia, że ich karty będą obsługiwać Bullet, i czekać, aż samo się zrobi). Co do OpenCL to też nie jest to sposób Amd, tylko przymus, który postawili przed Amd Apple i nVidia (Apple razem z nVidią ustaliły standard (szefem prac nad OpenCL był wiceprezes nVidii)) i żeby karty AMD były wkładane do kompów z MacOS ich karty muszą obsługiwać OpenCL.
Oczywiście, też mi się nie podoba ze dużo mówią mniej robią, ale główny problem to zrobienie własnego standardu - ja uważam ze ATI nie miałoby szans na zrobienie i wypromowanie tego, bo nawet nvidii średnio to wyszło kilka lat promocji a kilka gier na krzyż, dlatego zostaje tylko czekać aż ati zrobi to co mówi, bo nie sztuką jest zrobić coś nowego, ale zrobić coś co się przyjmie, będzie łatwe i będzie u wszystkich dobrze działało - nvidia zrobiła coś nowego, trudnego i bez GTX285 nie można grać z physx i wysokimi detalami w sporą część gier które to obsługują, więc jeśli powstanie otwarty prosty standard dający duże możliwości to choć nie będzie t nic nowego to być moze przyjmie się na tyle że będzie w kazdej grze i będzie działać na każdej karcie.
Oczywiście, też mi się nie podoba ze dużo mówią mniej robią, ale główny problem to zrobienie własnego standardu - ja uważam ze ATI nie miałoby szans na zrobienie i wypromowanie tego, bo nawet nvidii średnio to wyszło kilka lat promocji a kilka gier na krzyż, dlatego zostaje tylko czekać aż ati zrobi to co mówi, bo nie sztuką jest zrobić coś nowego, ale zrobić coś co się przyjmie, będzie łatwe i będzie u wszystkich dobrze działało - nvidia zrobiła coś nowego, trudnego i bez GTX285 nie można grać z physx i wysokimi detalami w sporą część gier które to obsługują...
Średnio jak średnio - silnik jest najpopularniejszym silnikiem fizyki, więc wyszło im to dosyć dobrze - jedynie z obliczeniami GPU jest gorzej, bo fizyka musi działać i na kartach AMD (nie działa nić póki co więc musi być dostosowana do CPU więc nie ma sensu takiej fizyki na siłę wpychać na GPU skoro zadziała i na CPU).