komentarze
SuLac0Zobacz profil
Poziom ostrzeżenia: 0%
SuLac02010.09.10, 16:15
sideband @ 2010.09.10 16:05  Post: 412100
To jest wszystko na krotka mete , az do pojawiena sie dobrego silnika na direct compute/opencl.

zgadza sie . i dlatego w bullet masz juz cuda ktore moze byc wykorzystane w innych silnikach. opnecl? tez cuda.physx to tez cuda. tak wiec w sumie bez znaczenia co bedzie sie dzialo, nv jest przygotowane. ;)
halflife2004Zobacz profil
Poziom ostrzeżenia: 0%
halflife20042010.09.10, 16:16
-4#42
Na cały PhysX to chyba narzekają tylko posiadacze ATI, co ? Bo wszyscy co mają NV dostali świetny dodatek w niektórych grach, co tylko je poprawia, tak samo jak CUDA i woda w Just Cause 2. I teraz pytanie za 100 pkt. czy ktoś normalny, co ma NV narzekał by na dodatkowe efekty ? Nie, więc wiadomo, że pod tym tematem zadowoleni będą posiadacze NV (moim zdaniem tylko Ci mogą powiedzieć, że grają w maksymalnych detalach w w/w grach) oraz mocno niezadowoleni i zniesmaczeni posiadacze ATI. Niby to tylko jakieś tam PhysX, ale jak miałe ATI, po przejściu z NV (bo nie było nowych NV) to powiem szczerze, że może i to jest nic, ale czułem się, że jednak te w/w gry już nie były dla mnie. I teraz kolejne pytanie ? Czemu NV może tak robić, a ATI nie ? Odpowiedz, bo ATI ma jak zawsze każdego klienta w d... , karty robi się do gier więc trzeba współpracować mocno z wydawca i producentami gier, aby to właśnie TE gry chodziły u nas najlepiej jak się tylko da + miały jakieś bajery. W ilu grach jest znaczek ATI (AvP / Dirt2), a w ilu NV (.......) Nawet takie głupie CUDA dodali do Just Cause 2 aby gra była dużo ładniejsza na NV, co ATI nie może też tak robić ? Jedno jest pewne dyrektor od marketingu AMD jest słaby.

Pozdrawiam

PS. i proszę mi nie mówic i pisać, że ATI/AMD nie może też mieć odpowiednika PhysX do gier, może tylko po co to robić jak można i tak sprzedawać karty nie dokładając do kosztów na nowe technologie lub nowe rozwiązania.
sidebandZobacz profil
Poziom ostrzeżenia: 0%
sideband2010.09.10, 16:17
SuLac0 @ 2010.09.10 16:15  Post: 412102
sideband @ 2010.09.10 16:05  Post: 412100
To jest wszystko na krotka mete , az do pojawiena sie dobrego silnika na direct compute/opencl.

zgadza sie . i dlatego w bullet masz juz cuda ktore moze byc wykorzystane w innych silnikach. opnecl? tez cuda.physx to tez cuda. tak wiec w sumie bez znaczenia co bedzie sie dzialo, nv jest przygotowane. ;)


To j a wiem , ze w nv cuda=opencl
SuLac0Zobacz profil
Poziom ostrzeżenia: 0%
SuLac02010.09.10, 16:22
sideband @ 2010.09.10 16:17  Post: 412105

To j a wiem , ze w nv cuda=opencl

to ja wiem, ze Ty wiesz :) ale zdaje sie, ze inni nie ;)
CUDAczne, tak wysmiewane rozwiazanie nv, praktycznie otweira im droge do kazdego silnika fizycznego.
sidebandZobacz profil
Poziom ostrzeżenia: 0%
sideband2010.09.10, 16:25
SuLac0 @ 2010.09.10 16:22  Post: 412108
sideband @ 2010.09.10 16:17  Post: 412105

To j a wiem , ze w nv cuda=opencl

to ja wiem, ze Ty wiesz :) ale zdaje sie, ze inni nie ;)
CUDAczne, tak wysmiewane rozwiazanie nv, praktycznie otweira im droge do kazdego silnika fizycznego.

I nie tylko , moga wiele rzeczy puscic na cuda bez zbednego meczenia sie. Ati sie meczy i do tej pory nie mamy od nich oficjalnych sterownikow z supportem dla opencl.
Promilus1984Zobacz profil
Poziom ostrzeżenia: 0%
Promilus19842010.09.10, 16:27
@sideband - bo po co, skoro nie ma żadnego konkretnego komercyjnego softu z tego korzystającego? Tzn. softu dla typowego Kowalskiego. Jest all dla developerów, bo nikt inny się tym zasadniczo nie zajmuje. No chyba, że ktoś sobie chce demka puścić...
Opson6667Zobacz profil
Poziom ostrzeżenia: 0%
Opson66672010.09.10, 16:32
-2#47
OpenCL może skończyć jak OpenGL - albo i jeszcze gorzej. OpenGL kiedyś był jednak w grach wykorzystywany, OpenCL może nawet nie zabłysnąć... Prędzej DirectCompute
TelvasZobacz profil
Poziom ostrzeżenia: 0%
Telvas2010.09.10, 16:33
halflife2004 @ 2010.09.10 16:16  Post: 412103
Na cały PhysX to chyba narzekają tylko posiadacze ATI, co ? Bo wszyscy co mają NV dostali świetny dodatek w niektórych grach, co tylko je poprawia, tak samo jak CUDA i woda w Just Cause 2. I teraz pytanie za 100 pkt. czy ktoś normalny, co ma NV narzekał by na dodatkowe efekty ? Nie, więc wiadomo, że pod tym tematem zadowoleni będą posiadacze NV (moim zdaniem tylko Ci mogą powiedzieć, że grają w maksymalnych detalach w w/w grach) oraz mocno niezadowoleni i zniesmaczeni posiadacze ATI. Niby to tylko jakieś tam PhysX, ale jak miałe ATI, po przejściu z NV (bo nie było nowych NV) to powiem szczerze, że może i to jest nic, ale czułem się, że jednak te w/w gry już nie były dla mnie. I teraz kolejne pytanie ? Czemu NV może tak robić, a ATI nie ? Odpowiedz, bo ATI ma jak zawsze każdego klienta w d... , karty robi się do gier więc trzeba współpracować mocno z wydawca i producentami gier, aby to właśnie TE gry chodziły u nas najlepiej jak się tylko da + miały jakieś bajery. W ilu grach jest znaczek ATI (AvP / Dirt2), a w ilu NV (.......) Nawet takie głupie CUDA dodali do Just Cause 2 aby gra była dużo ładniejsza na NV, co ATI nie może też tak robić ? Jedno jest pewne dyrektor od marketingu AMD jest słaby.

Pozdrawiam

PS. i proszę mi nie mówic i pisać, że ATI/AMD nie może też mieć odpowiednika PhysX do gier, może tylko po co to robić jak można i tak sprzedawać karty nie dokładając do kosztów na nowe technologie lub nowe rozwiązania.

Widzisz, ale wybór pomiędzy Radeonem a GeForce'em jest pełen sprzeczności. Te karty się dość mocno różnią. A żeby mieć PhysX'a trzeba się pogodzić z BRAKIEM wyboru. GF i basta. Gdyby karty AMD i NVIDII były identyczne, wtedy faktycznie nikt by nie narzekał na obecność dodatków w jednej z nich.

Poza tym współczesne kompilatory (te dla 'normalnych CPU', żeby nie było wątpliwości) radzą sobie z optymalizacją kodu TAKŻE do SSE. Często wykorzystanie lub nie SSE sprowadza się do zahaczenia pola w opcjach kompilacji projektu. Oczywiście nie mówimy to o jakichś wysublimowanych optymalizacjach - po prostu o wykorzystaniu tego, co można mieć w zasadzie zerowym nakładem pracy. Podobnie sprawa ma się z wielowątkowością, o czym jest nawet wspomniane w artykule.

Rozumiemy oczywiście, że producent softu optymalizuje go głównie pod swój sprzęt. Jest to naturalne, żyjemy przecież w Epoce Pieniądza. Jednak mam wrażenie, że NVIDIA specjalnie uszczknęła kilka istotnych szczegółów po to, żeby różnica wydajności wyraźnie usprawiedliwiała zakup GeForce'a dla PhysXa poganianego na CUDAch a nie CPU.
zaq271Zobacz profil
Poziom ostrzeżenia: 0%
zaq2712010.09.10, 16:41
-1#49
halflife2004 @ 2010.09.10 15:05  Post: 412056
Dla mnie Batman AA z PhysX oraz w 3d Vision to zupełnie inne doznanie z gry niż bez tego. Gra i tak była chyba najlepszą grą 2009 roku, ale z tymi dodatkami jest po prostu nie do opisania. I teraz kolejne pytanie kto normalny, kto nie chce wydać dużo kupi coś innego niż 460! AMP ? NVIDIA mocno się spóźniła z kartami, ale dla graczy wymagających od razu dała to co trzeba czyli 480 i 470, niestety ATi w tym czasie zakosiło cały rynek low endów które są najczęściej kupowane. Na chwilę obecną jest 460 i tutaj powiedzmy sobie szczerze jest to najlepsza grafika która daje wszystko od DX11 po PhysX do b. dużej wydajności w grach przy cenie bezkonkurencyjnej do reszty.
Chcesz mieć PhysX i najszybszą grafikę w stosunku cena/jakość to kup 460AMP!a :]

PS. to nie była reklama :]


A nie sadzisz ze lepszym wyborem będzie Palit za 570 zł? Nowe Radeony powinny zrobić swoje. Czekam na ceny poniżej 500 zł to wtedy zakupie 2 sztuki. Oczywiście nie do swojego komputera bo ja sobie cenie jakość obrazu ponad wszystko.
Opson6667Zobacz profil
Poziom ostrzeżenia: 0%
Opson66672010.09.10, 16:42
Telvas @ 2010.09.10 16:33  Post: 412114

Rozumiemy oczywiście, że producent softu optymalizuje go głównie pod swój sprzęt. Jest to naturalne, żyjemy przecież w Epoce Pieniądza. Jednak mam wrażenie, że NVIDIA specjalnie uszczknęła kilka istotnych szczegółów po to, żeby różnica wydajności wyraźnie usprawiedliwiała zakup GeForce'a dla PhysXa poganianego na CUDAch a nie CPU.


A jaki miałaby w tym interes żeby to zrobić? Żaden. Nikt nie kopie sam pod siebie dołków
Promilus1984Zobacz profil
Poziom ostrzeżenia: 0%
Promilus19842010.09.10, 16:46
A jaki miałaby w tym interes żeby to zrobić?

Spopularyzowanie PhysX, wyparcie havoka, zarobienie na licencjonowaniu silnika fizyki?
cyrix133Zobacz profil
Poziom ostrzeżenia: 0%
cyrix1332010.09.10, 16:47
-10#52
dobrze że zamieścili filmiki ...przynajmniej radeonowcy będą mogli popatrzeć co stracili nie kupując prawdziwych zaawansowanych kart dla graczy....co niektóre gry powodują opad szczęki...przewaga jakości gtxów jest miażdżąca...radeony to można powiedzieć relikt przeszłości, coś bardziej ubogiego, coś niskiej jakości, taka namiastka...:/.....nvidia to sprzęt dla ludzi wyjadaczy którzy chcą się cieszyć z gry
PlaYboy32Zobacz profil
Poziom ostrzeżenia: 0%
PlaYboy322010.09.10, 16:53
A jaka płyta główna była zastosowana z Phenomem?
TelvasZobacz profil
Poziom ostrzeżenia: 0%
Telvas2010.09.10, 16:56
Opson6667 @ 2010.09.10 16:42  Post: 412117
Telvas @ 2010.09.10 16:33  Post: 412114

Rozumiemy oczywiście, że producent softu optymalizuje go głównie pod swój sprzęt. Jest to naturalne, żyjemy przecież w Epoce Pieniądza. Jednak mam wrażenie, że NVIDIA specjalnie uszczknęła kilka istotnych szczegółów po to, żeby różnica wydajności wyraźnie usprawiedliwiała zakup GeForce'a dla PhysXa poganianego na CUDAch a nie CPU.


A jaki miałaby w tym interes żeby to zrobić? Żaden. Nikt nie kopie sam pod siebie dołków

Po twoich wypowiedziach wnioskuję, że jesteś fanem NVIDII. Oczywiście - szanujemy cię. Ja np. jestem fanem jak największej wydajności za jak najmniej złotówek i wkurza mnie, że ktoś mi coś blokuje, próbując na tym zarobić. Jeśli będziesz dalej tłumaczył to zarabianiem pieniędzy, to życzę ci, żebyś w niedalekiej przyszłości musiał płacić miesięczny abonament za Windowsa. Wtedy zrozumiesz, że 'można' nie jest równe 'jest ok'.
miekrzyZobacz profil
Poziom ostrzeżenia: 0%
Autor publikacjimiekrzy2010.09.10, 17:08
PlaYboy32 @ 2010.09.10 16:53  Post: 412122
A jaka płyta główna była zastosowana z Phenomem?

Wstyd mi się przyznać do tego jaką mam płytę w domu :D
maciek1707Zobacz profil
Poziom ostrzeżenia: 0%
maciek17072010.09.10, 17:15
halflife2004 @ 2010.09.10 16:16  Post: 412103
... zadowoleni będą posiadacze NV (moim zdaniem tylko Ci mogą powiedzieć, że grają w maksymalnych detalach w w/w grach) ...
.

tylko że w maksymalnych detalach może grać mały odsetek posiadaczy kart nv
na stacjonarnym (radeon 4850) mam lepszą jakość (detale) ni na lapku (gf 9650m gt)
p.s. zastanawiam się na zakupem 460, ale nie ze względu na physx
GalvatronZobacz profil
Poziom ostrzeżenia: 0%
Galvatron2010.09.10, 17:19
miekrzy @ 2010.09.10 17:08  Post: 412126
PlaYboy32 @ 2010.09.10 16:53  Post: 412122
A jaka płyta główna była zastosowana z Phenomem?

Wstyd mi się przyznać do tego jaką mam płytę w domu :D

Jak ma się wydajność duetu HD5850 + 9800GTX+/GTS 250 do samego GTX 480, który liczy wszystko?
halflife2004Zobacz profil
Poziom ostrzeżenia: 0%
halflife20042010.09.10, 17:31
-2#58
Galvatron @ 2010.09.10 17:19  Post: 412131
miekrzy @ 2010.09.10 17:08  Post: 412126
(...)

Wstyd mi się przyznać do tego jaką mam płytę w domu :D

Jak ma się wydajność duetu HD5850 + 9800GTX+/GTS 250 do samego GTX 480, który liczy wszystko?


Teraz nie opłaca się brać samej 480 no chyba, że w SLI, opłaca się za to zabrać 2x460 zamiast jednej 480, a jak to się ma ? No cóż 2x460 na AMP! rozsmarowuje 5970 od tak to się ma i kosztuje ten zestaw ok. 1500 PLN
сyrix133Zobacz profil
Poziom ostrzeżenia: 0%
сyrix1332010.09.10, 17:34
-1#59
Jak by to było takie dobre to każda gra używała by tej technologii, a wiadomo że tak nie jest. Gry bez i bez tego wyglądają b.dobrze, a na Radeonach zawsze lepiej od GF.
miekrzyZobacz profil
Poziom ostrzeżenia: 0%
Autor publikacjimiekrzy2010.09.10, 17:35
Galvatron @ 2010.09.10 17:19  Post: 412131
Jak ma się wydajność duetu HD5850 + 9800GTX+/GTS 250 do samego GTX 480, który liczy wszystko?

Wydajność jest praktycznie taka sama jak połączenia 9800 GTX+ + GTX 480, bo jesteś limitowany wydajnością karty liczącej fizykę, a nie karty od grafiki (przeważnie).
Funkcja komentowania została wyłączona. Do dyskusji zapraszamy na forum.