Gdyby nVidia nie była taka ograniczona to zrobiła by sterowniki takie, by dało się uruchomić CUDA/PhysX na każdym komputerze gdzie tylko siedzi jakiś układ nVidii serii 8+.
Klienci z Radeonami kupowaliby tanie GF8400GS i mieliby PhysX w grach, a producenci widząc to że PhysX jest w większej ilości komputerów bardziej odważnie stosowaliby efekty fizyki w swoich grach. Z czasem okazałoby się, że GF8400GS nie wystarczy, klienci zmienialiby na 9600GT, GTX260 itd. a nVidia by na tym dodatkowo zarabiała...
Nawet powinni wypromować specjalne energooszczędne 9600GSO (48p) w wersji PCI-E 1x
A ja jeszcze dzisiaj rozważałem kupno GF 250 do mojego radka, żeby obsługiwał fizykę. No cóż NVIDIA właśnie straciła trochę forsy. I wciąż popełnia błąd myśląc, że liczy się tylko high-end.
Tu nVidii nie chodzi o to, że liczy się tylko hi-end tylko, że dla nVidii lepiej żeby to były 2x karty nawet lo-end, ale od nVidii. Jednak nie rozumiem dlaczego właściwie zmniejszają możliwości własnych kart (tzn jedyny sens ma sens biznesowy - jeśli chcesz wydajną fizykę musisz kupować tylko karty nVidii).
BuLiNN @ 2009.09.27 16:22
Nvidia nie zrobila PhysX , jak nie ktorzy mysla ^^ , zostalo zapoczatkowane przez AGEIA a nie Nvidie ;/ kolejny samoboj?
PhysX nie zostało zapoczątkowane przez AGEIA jak 'niektórzy' myślą, a przez NovodeX.
G3GO @ 2009.09.27 16:26
Mam nadzieję, że PhysX wkrótce upadnie dzięki Direct 11 i nie będzie więcej problemów z liczeniem fizyki na kartach Ati.
Nie licz na coś co jest nie realne (nie licz przynajmniej przez najbliższe kilka lat, że jakiś silnik fizyki będzie korzystał z dx) - co najwyżej upadnie dzięki OpenCL i silnikom korzystającym z niego jak Bullet - jednak wydajniej na tym silniku puki co jest użyć CUDA i nie wszystko jest jeszcze liczone na karcie graficznej.
Po wojnach chipsetowo socketowych takie zagranie bardzo mnie nie szokuje. Wiedziałem że łączenie dwóch producentów kart w jednym komputerze nie przejdzie bez tarć i jak widać nie myliłem się
''Ale o co chodzi? Stworzyli to samemu to wiedzą że jeśli jest radeon to może coś się psuć i dlatego nie dają 100% gwarancji że wszystko będzie dobrze działać''
Tu nie chodzi o to, że coś może się psuć, tylko o to, że to karta konkurencji.
A ja jeszcze dzisiaj rozważałem kupno GF 250 do mojego radka, żeby obsługiwał fizykę. No cóż NVIDIA właśnie straciła trochę forsy. I wciąż popełnia błąd myśląc, że liczy się tylko high-end.
no i dobrze....swoje patenty trzeba chronić i na nich zarabiać
Tylko jak to się ma do stwierdzenia, że to otwarty standard? Albo jedno, albo drugie.
Na implementacje są patenty... na sam PhysX nie - jeśli Ati chce mieć PhysX to niech napisze własne biblioteki z API PhysX (czyli tak jak z innymi otwartymi standardami jak OpenGL/OpenCL...)... ale decyzji o zablokowaniu PhysX dla własnych kart nie jestem w stanie wyjaśnić, bo jest to dziwne zachowanie.
siedge @ 2009.09.27 15:57
Ale o co chodzi? Stworzyli to samemu to wiedzą że jeśli jest radeon to może coś się psuć i dlatego nie dają 100% gwarancji że wszystko będzie dobrze działać
Akurat tu nic nie ma wspólnego z tym, że na radeon może się coś popsuć (bo działa i tak na kartach nvidii), a jedynie później to co obliczy karta nVidii renderuje karta Amd.
Ze względu na ochronę jakości oraz pewne kwestie biznesowe
Jak pięknie i szlachetnie to brzmi
Z drugiej strony polityka NVIDII wydaje się mieć sens. Pozostawienie sytuacji, w której klienci kupowaliby do grania wydajne Radeony, a GeForce tańsze, tylko do obliczania fizyki, mogłoby doprowadzić do utrwalenia przekonania, że nie warto kupować wydajnych modeli kart graficznych GeForce.
Nie do końca rozumiem. Utrwalenia? Coś musi najpierw istnieć, żeby mogło być utrwalone. A istnieje takie przekonanie? Chyba nie.
A tak właściwie - mam dokładnie odwrotne zdanie. Przecież obecność takiego rozwiązania (ATI do grafy + NV do fizyki) sugeruje klientom, że lepiej kupić jedną szybką kartę GeForce, która ma i wydajność, i fizykę.
NVIDIA chyba trochę nie myśli. Skoro ktoś kupił Radeona nie mając na myśli PhysX a później zechce zobaczyć te efekty, to dokupi kartę powiedzmy 8400gs lub nawet mocniejszą i NVIDIA i tak na tym zarobi
Ale o co chodzi? Stworzyli to samemu to wiedzą że jeśli jest radeon to może coś się psuć i dlatego nie dają 100% gwarancji że wszystko będzie dobrze działać
NomadDemon:
Poczytaj trochę o płytach głównych i napisz jeszcze raz ten komentarz
nvidia sie sama dobija w ten sposob, nigdy nie dazylem ich sympatia.. niech sie gonnia leszcze
AMD moze na tym lepiej wyjsc, zablokuje swoj socket na ich czipsetach czy obsluge radeonow na nforce i sie skonczy dzien dziecka, zobaczymy kto na tym lepiej wyjdzie
No to juz widze te nowa technologie jak HD5xxx współpracuja z GT300 , nie pamietam jak sie to mialo nazywac ale to co jest w tym artykule jest poczatkiem konca dobrego !
Klienci z Radeonami kupowaliby tanie GF8400GS i mieliby PhysX w grach, a producenci widząc to że PhysX jest w większej ilości komputerów bardziej odważnie stosowaliby efekty fizyki w swoich grach. Z czasem okazałoby się, że GF8400GS nie wystarczy, klienci zmienialiby na 9600GT, GTX260 itd. a nVidia by na tym dodatkowo zarabiała...
Nawet powinni wypromować specjalne energooszczędne 9600GSO (48p) w wersji PCI-E 1x
A ja jeszcze dzisiaj rozważałem kupno GF 250 do mojego radka, żeby obsługiwał fizykę. No cóż NVIDIA właśnie straciła trochę forsy. I wciąż popełnia błąd myśląc, że liczy się tylko high-end.
Tu nVidii nie chodzi o to, że liczy się tylko hi-end tylko, że dla nVidii lepiej żeby to były 2x karty nawet lo-end, ale od nVidii. Jednak nie rozumiem dlaczego właściwie zmniejszają możliwości własnych kart (tzn jedyny sens ma sens biznesowy - jeśli chcesz wydajną fizykę musisz kupować tylko karty nVidii).
PhysX nie zostało zapoczątkowane przez AGEIA jak 'niektórzy' myślą, a przez NovodeX.
Nie licz na coś co jest nie realne (nie licz przynajmniej przez najbliższe kilka lat, że jakiś silnik fizyki będzie korzystał z dx) - co najwyżej upadnie dzięki OpenCL i silnikom korzystającym z niego jak Bullet - jednak wydajniej na tym silniku puki co jest użyć CUDA i nie wszystko jest jeszcze liczone na karcie graficznej.
To nie sli , przeróbka hal oszukuje sterownik odnośnie mobasa jaki posiadamy.
Tu nie chodzi o to, że coś może się psuć, tylko o to, że to karta konkurencji.
A ja jeszcze dzisiaj rozważałem kupno GF 250 do mojego radka, żeby obsługiwał fizykę. No cóż NVIDIA właśnie straciła trochę forsy. I wciąż popełnia błąd myśląc, że liczy się tylko high-end.
Czyli masz pewne informacje, że Hydra umożliwi działanie PhysX przy kartach z dwóch obozów?
Tylko jak to się ma do stwierdzenia, że to otwarty standard? Albo jedno, albo drugie.
Na implementacje są patenty... na sam PhysX nie - jeśli Ati chce mieć PhysX to niech napisze własne biblioteki z API PhysX (czyli tak jak z innymi otwartymi standardami jak OpenGL/OpenCL...)... ale decyzji o zablokowaniu PhysX dla własnych kart nie jestem w stanie wyjaśnić, bo jest to dziwne zachowanie.
Akurat tu nic nie ma wspólnego z tym, że na radeon może się coś popsuć (bo działa i tak na kartach nvidii), a jedynie później to co obliczy karta nVidii renderuje karta Amd.
Jak pięknie i szlachetnie to brzmi
Nie do końca rozumiem. Utrwalenia? Coś musi najpierw istnieć, żeby mogło być utrwalone. A istnieje takie przekonanie? Chyba nie.
A tak właściwie - mam dokładnie odwrotne zdanie. Przecież obecność takiego rozwiązania (ATI do grafy + NV do fizyki) sugeruje klientom, że lepiej kupić jedną szybką kartę GeForce, która ma i wydajność, i fizykę.
NomadDemon:
Poczytaj trochę o płytach głównych i napisz jeszcze raz ten komentarz
AMD moze na tym lepiej wyjsc, zablokuje swoj socket na ich czipsetach czy obsluge radeonow na nforce i sie skonczy dzien dziecka, zobaczymy kto na tym lepiej wyjdzie
Tylko jak to się ma do stwierdzenia, że to otwarty standard? Albo jedno, albo drugie.
@UP:
Też tak myślę.
No, ale umilić życie konsumentom też można by było skoro za coś płacą, nie?