No to juz widze te nowa technologie jak HD5xxx współpracuja z GT300 , nie pamietam jak sie to mialo nazywac ale to co jest w tym artykule jest poczatkiem konca dobrego !
nvidia sie sama dobija w ten sposob, nigdy nie dazylem ich sympatia.. niech sie gonnia leszcze
AMD moze na tym lepiej wyjsc, zablokuje swoj socket na ich czipsetach czy obsluge radeonow na nforce i sie skonczy dzien dziecka, zobaczymy kto na tym lepiej wyjdzie
Ale o co chodzi? Stworzyli to samemu to wiedzą że jeśli jest radeon to może coś się psuć i dlatego nie dają 100% gwarancji że wszystko będzie dobrze działać
NomadDemon:
Poczytaj trochę o płytach głównych i napisz jeszcze raz ten komentarz
NVIDIA chyba trochę nie myśli. Skoro ktoś kupił Radeona nie mając na myśli PhysX a później zechce zobaczyć te efekty, to dokupi kartę powiedzmy 8400gs lub nawet mocniejszą i NVIDIA i tak na tym zarobi
Ze względu na ochronę jakości oraz pewne kwestie biznesowe
Jak pięknie i szlachetnie to brzmi
Z drugiej strony polityka NVIDII wydaje się mieć sens. Pozostawienie sytuacji, w której klienci kupowaliby do grania wydajne Radeony, a GeForce tańsze, tylko do obliczania fizyki, mogłoby doprowadzić do utrwalenia przekonania, że nie warto kupować wydajnych modeli kart graficznych GeForce.
Nie do końca rozumiem. Utrwalenia? Coś musi najpierw istnieć, żeby mogło być utrwalone. A istnieje takie przekonanie? Chyba nie.
A tak właściwie - mam dokładnie odwrotne zdanie. Przecież obecność takiego rozwiązania (ATI do grafy + NV do fizyki) sugeruje klientom, że lepiej kupić jedną szybką kartę GeForce, która ma i wydajność, i fizykę.
no i dobrze....swoje patenty trzeba chronić i na nich zarabiać
Tylko jak to się ma do stwierdzenia, że to otwarty standard? Albo jedno, albo drugie.
Na implementacje są patenty... na sam PhysX nie - jeśli Ati chce mieć PhysX to niech napisze własne biblioteki z API PhysX (czyli tak jak z innymi otwartymi standardami jak OpenGL/OpenCL...)... ale decyzji o zablokowaniu PhysX dla własnych kart nie jestem w stanie wyjaśnić, bo jest to dziwne zachowanie.
siedge @ 2009.09.27 15:57
Ale o co chodzi? Stworzyli to samemu to wiedzą że jeśli jest radeon to może coś się psuć i dlatego nie dają 100% gwarancji że wszystko będzie dobrze działać
Akurat tu nic nie ma wspólnego z tym, że na radeon może się coś popsuć (bo działa i tak na kartach nvidii), a jedynie później to co obliczy karta nVidii renderuje karta Amd.
''Ale o co chodzi? Stworzyli to samemu to wiedzą że jeśli jest radeon to może coś się psuć i dlatego nie dają 100% gwarancji że wszystko będzie dobrze działać''
Tu nie chodzi o to, że coś może się psuć, tylko o to, że to karta konkurencji.
A ja jeszcze dzisiaj rozważałem kupno GF 250 do mojego radka, żeby obsługiwał fizykę. No cóż NVIDIA właśnie straciła trochę forsy. I wciąż popełnia błąd myśląc, że liczy się tylko high-end.
Po wojnach chipsetowo socketowych takie zagranie bardzo mnie nie szokuje. Wiedziałem że łączenie dwóch producentów kart w jednym komputerze nie przejdzie bez tarć i jak widać nie myliłem się
A ja jeszcze dzisiaj rozważałem kupno GF 250 do mojego radka, żeby obsługiwał fizykę. No cóż NVIDIA właśnie straciła trochę forsy. I wciąż popełnia błąd myśląc, że liczy się tylko high-end.
Tu nVidii nie chodzi o to, że liczy się tylko hi-end tylko, że dla nVidii lepiej żeby to były 2x karty nawet lo-end, ale od nVidii. Jednak nie rozumiem dlaczego właściwie zmniejszają możliwości własnych kart (tzn jedyny sens ma sens biznesowy - jeśli chcesz wydajną fizykę musisz kupować tylko karty nVidii).
BuLiNN @ 2009.09.27 16:22
Nvidia nie zrobila PhysX , jak nie ktorzy mysla ^^ , zostalo zapoczatkowane przez AGEIA a nie Nvidie ;/ kolejny samoboj?
PhysX nie zostało zapoczątkowane przez AGEIA jak 'niektórzy' myślą, a przez NovodeX.
G3GO @ 2009.09.27 16:26
Mam nadzieję, że PhysX wkrótce upadnie dzięki Direct 11 i nie będzie więcej problemów z liczeniem fizyki na kartach Ati.
Nie licz na coś co jest nie realne (nie licz przynajmniej przez najbliższe kilka lat, że jakiś silnik fizyki będzie korzystał z dx) - co najwyżej upadnie dzięki OpenCL i silnikom korzystającym z niego jak Bullet - jednak wydajniej na tym silniku puki co jest użyć CUDA i nie wszystko jest jeszcze liczone na karcie graficznej.
No, ale umilić życie konsumentom też można by było skoro za coś płacą, nie?
Tylko jak to się ma do stwierdzenia, że to otwarty standard? Albo jedno, albo drugie.
@UP:
Też tak myślę.
AMD moze na tym lepiej wyjsc, zablokuje swoj socket na ich czipsetach czy obsluge radeonow na nforce i sie skonczy dzien dziecka, zobaczymy kto na tym lepiej wyjdzie
NomadDemon:
Poczytaj trochę o płytach głównych i napisz jeszcze raz ten komentarz
Jak pięknie i szlachetnie to brzmi
Nie do końca rozumiem. Utrwalenia? Coś musi najpierw istnieć, żeby mogło być utrwalone. A istnieje takie przekonanie? Chyba nie.
A tak właściwie - mam dokładnie odwrotne zdanie. Przecież obecność takiego rozwiązania (ATI do grafy + NV do fizyki) sugeruje klientom, że lepiej kupić jedną szybką kartę GeForce, która ma i wydajność, i fizykę.
Tylko jak to się ma do stwierdzenia, że to otwarty standard? Albo jedno, albo drugie.
Na implementacje są patenty... na sam PhysX nie - jeśli Ati chce mieć PhysX to niech napisze własne biblioteki z API PhysX (czyli tak jak z innymi otwartymi standardami jak OpenGL/OpenCL...)... ale decyzji o zablokowaniu PhysX dla własnych kart nie jestem w stanie wyjaśnić, bo jest to dziwne zachowanie.
Akurat tu nic nie ma wspólnego z tym, że na radeon może się coś popsuć (bo działa i tak na kartach nvidii), a jedynie później to co obliczy karta nVidii renderuje karta Amd.
Czyli masz pewne informacje, że Hydra umożliwi działanie PhysX przy kartach z dwóch obozów?
Tu nie chodzi o to, że coś może się psuć, tylko o to, że to karta konkurencji.
A ja jeszcze dzisiaj rozważałem kupno GF 250 do mojego radka, żeby obsługiwał fizykę. No cóż NVIDIA właśnie straciła trochę forsy. I wciąż popełnia błąd myśląc, że liczy się tylko high-end.
To nie sli , przeróbka hal oszukuje sterownik odnośnie mobasa jaki posiadamy.
A ja jeszcze dzisiaj rozważałem kupno GF 250 do mojego radka, żeby obsługiwał fizykę. No cóż NVIDIA właśnie straciła trochę forsy. I wciąż popełnia błąd myśląc, że liczy się tylko high-end.
Tu nVidii nie chodzi o to, że liczy się tylko hi-end tylko, że dla nVidii lepiej żeby to były 2x karty nawet lo-end, ale od nVidii. Jednak nie rozumiem dlaczego właściwie zmniejszają możliwości własnych kart (tzn jedyny sens ma sens biznesowy - jeśli chcesz wydajną fizykę musisz kupować tylko karty nVidii).
PhysX nie zostało zapoczątkowane przez AGEIA jak 'niektórzy' myślą, a przez NovodeX.
Nie licz na coś co jest nie realne (nie licz przynajmniej przez najbliższe kilka lat, że jakiś silnik fizyki będzie korzystał z dx) - co najwyżej upadnie dzięki OpenCL i silnikom korzystającym z niego jak Bullet - jednak wydajniej na tym silniku puki co jest użyć CUDA i nie wszystko jest jeszcze liczone na karcie graficznej.