Przykład nie trafiony bo Ati miała bardzo kiepskie sterowniki i dopiero teraz to poprawia (dalej nie wszystko jest naprawione, ale idzie ku dobremu).
Jakie problemy?
Używałem ATI przez jakieś 10 lat, nie miałem żadnych problemów - NIC. Na pewno mówimy o legalnych, patchowanych grach? bo mam wrażenie, że wielu marudzących widziało x gier tylko w wersjach beta, czy niedokończonych produkcjach, które przeciekły do netu.
Żeby nie było - jadę teraz na nvidii, bo ...nie było pasującego mi bloku wodnego do ati. Jak tylko pojawią się nowe radki wracam do 'czerwonych', bo śmieszny jest fakt, że mój 'potwór' nvidii (gtx280) nie potrafi w niektórych grach wyświetlać HDR przy włączonym AA...
Z ati nie miałem - powtórzę - żadnych problemów ze sterownikami. Może dlatego, że jestem legalny, może dlatego, że używam dobrego sprzętu, rzetelnych pamięci, procka intela? Nie wiem. Ale dajcie już spokój z tekstami o sterownikach ATI, bo w większości przypadków są to czyste bzdury.
Nvidia ma na swoim koncie więcej nieeleganckich zachowań. Znane wszystkim wielokrotne wypuszczanie na rynek tych samych GPU jako produkty nowej generacji.
No i co z tego wynika?
Były szybsze? Były! Ati ich nie doganiała? Tak! Dawały wszystko co Ati, a nawet więcej? Tak!
Więc gdzie tu chcesz się przyczepić? Jak już chcesz się czepiać to czepiaj się Ati, że wcześniej nie dogoniła nVidii (jak dogonili to nVidia przygotowała całkowicie nową konstrukcję).
pajownik @ 2009.09.27 23:19
Machinacje przy DX10 / DX10.1 i wmawianie ludziom że to otatnie nic nie wnosi. To nvidia spowolniła rozwój gier DX9 zalewając rynek kartami GeForce 4MX, które z tą serią miały wspólną tylko nazwę. To Nvidia wypacza rynek gier swoim programem 'współpracy' (The Way It Meant... ).
GF 4MX nie miał nazwy wspólnej z Dx9, bo wyszedł jako karta z Dx7 - pierwsze GF z Dx9 to seria FX, ale i one nie miały nic wspólnego z Dx9.0c, który był wydany dużo później
Co do programu TWiMTB i mówieniem, że dx10.1 nic nie daje użytkownikom to mieli rację, bo nic nie daję (daje tylko troszkę mniej roboty programistom (w efekcie więcej, ale to inna sprawa)), więc nVidia olała nic nie dającą wersję i w ramach programu mówiła jak to samo zrobić w DX10 szybciej niż w DX10.1
pajownik @ 2009.09.27 23:19
Jak wygląda ich polityka cenowa było widać po wypuszczeniu Radeonów serii 4xxxx. Karty GT2xx potaniały z dnia na dzień ponad dwókrotnie.
Jak wygląda polityka cenowa Amd każdy zobaczy po wypuszczeniu GT300 ;p. Człowieku to jest biznes i jest jasne, że jak nie ma konkurencji to cena jest wyższa.
oj zmieni.. bullet zyska i havok.. bo one dzialaja na wszystkim, myslicie ze ktos bedzie wymieniac karte zeby fizyka dzialala plynnie?
Physx to nie tylko pc ,jest on rownierz najpopularniejszy wsrod konsolowych hitow ;] . Nvidia nie musi sie martwic o popularnosc tego silnika jeszcze przez dlugi czas .
Jakie problemy?
Używałem ATI przez jakieś 10 lat, nie miałem żadnych problemów - NIC. Na pewno mówimy o legalnych, patchowanych grach? bo mam wrażenie, że wielu marudzących widziało x gier tylko w wersjach beta, czy niedokończonych produkcjach, które przeciekły do netu.
Nie mówię o grach tylko sterownikach - błędy przy filtrze antizo (w najnowszych sterach do serii 5xxx poprawione, czy sterownikach OpenGL gdzie robią cyrki (ostatnio też poprawiają, ale dalej są do tyłu względem konkurencji - zarówno względem jakości, jak i aktualności (ati przedstawiło sterowniki OpenGL 3.1 (stery 9.8) tydzień po tym jak nVidia dała stery OpenGL 3.2))). Artefakty przy AA - jak pisałem sterowniki dalej kiepskie, ale od wymienienia programistów na przełomie 8.x - 9.x jest coraz lepiej.
sir acid @ 2009.09.27 23:29
...bo śmieszny jest fakt, że mój 'potwór' nvidii (gtx280) nie potrafi w niektórych grach wyświetlać HDR przy włączonym AA...
Możesz napisać w jakich grach i jak ustawiasz to AA? Bo jeśli wymuszasz w sterownikach, a nie w grze to nic dziwnego, bo HDR musi być robiony jako postproces (a w DX10 nie można użyć AA jako postproces i programiści muszą pisać to sami (jeśli gra korzysta z DX10.1 i programiści się nie postarali (nie napisali wersji dla kart dx10) to faktycznie może nie być AA)).
Mr_Hyde @ 2009.09.27 23:36
NomadDemon @ 2009.09.27 20:37
oj zmieni.. bullet zyska i havok.. bo one dzialaja na wszystkim, myslicie ze ktos bedzie wymieniac karte zeby fizyka dzialala plynnie?
Physx to nie tylko pc ,jest on rownierz najpopularniejszy wsrod konsolowych hitow ;] . Nvidia nie musi sie martwic o popularnosc tego silnika jeszcze przez dlugi czas .
Akurat na PS3 PhysX jest dosyć młody i tam kruluje wspomniany Bullet, który jest standardowym silnikiem fizyki tam (sony zatrudniło twórcę bullet (wcześniej pracował nad havok), żeby dostosował bullet do procesora Cell i bullet został włączony do bibliotek na PS3).
Przykład nie trafiony bo Ati miała bardzo kiepskie sterowniki i dopiero teraz to poprawia (dalej nie wszystko jest naprawione, ale idzie ku dobremu).
Co do sterowników ATI, ja nie twierdzę że nie było z nimi problemów ale to było dość dawno. Na dzień dzisiejszy niema jakichś zasadniczych problemów, a mimo to na forach pokutuje stwierdzenie jakie to stery do radków kiepskie są. I o to chodziło w przykładzie. Jak ludzie zaczną coś gadać, to inni będą to długo powtarzać chćby to i nie była prawda.
A co do GF4MX, to koledze chodziło chyba o zgodność z DX8. Bo nie powiesz mi skoti, że GF4Ti i GF4MX, różniły się tylko wydajnościa? . Z tego co pamiętam, to GF4MX, to nieco (?) przerobiony GF2. Wiem bo sam wtedy 'wpadłem' i kupiłem tego GF-a, bo mnie użekło, że to z najnowszej serii.
A co do wydawania starych kart pod szyldem nowej generacji, to tak jest to złe - bo wprowadza w błąd klienta. A, że były wydajne to owszem, ale nie mów proszę, że bardziej od radeonów.
Dziadek mróz przyniesie DX11 i nowe grafy Nvidi i się wszystko ładnie wyklaruje fizyka pójdzie do DX i znowu wrócimy do liczenia fps-ów w nowych tytułach
A co do GF4MX, to koledze chodziło chyba o zgodność z DX8. Bo nie powiesz mi skoti, że GF4Ti i GF4MX, różniły się tylko wydajnościa? . Z tego co pamiętam, to GF4MX, to nieco (?) przerobiony GF2. Wiem bo sam wtedy 'wpadłem' i kupiłem tego GF-a, bo mnie użekło, że to z najnowszej serii.
A co do wydawania starych kart pod szyldem nowej generacji, to tak jest to złe - bo wprowadza w błąd klienta. A, że były wydajne to owszem, ale nie mów proszę, że bardziej od radeonów.
Tak gf4ti wspierał dx8, a gf4mx dx7 - wszystko było na pudełku i w sieci... ale zapewne wiele osób kupiło gf4mx - ile to lat temu było? 7-8?.
W jaki błąd? Nowa seria dla klienta to większa szybkość. GF 285 nie jest wydajniejszy od radeonów? No przestań.
eVit @ 2009.09.27 23:56
Dziadek mróz przyniesie DX11 i nowe grafy Nvidi i się wszystko ładnie wyklaruje fizyka pójdzie do DX i znowu wrócimy do liczenia fps-ów w nowych tytułach
Możesz powiedzieć z jakich fusów to wyczytałeś, bo żaden silnik fizyki nie zamierza przejść do Dx... co najwyżej do OpenCL.
No i co z tego wynika?
Były szybsze? Były! Ati ich nie doganiała? Tak! Dawały wszystko co Ati, a nawet więcej? Tak!
Więc gdzie tu chcesz się przyczepić? Jak już chcesz się czepiać to czepiaj się Ati, że wcześniej nie dogoniła nVidii (jak dogonili to nVidia przygotowała całkowicie nową konstrukcję).
Ja nie dyskutuję czy byly szybsze. Mowa o tym że przeskoczenie dwóch generacji kart na tym samym GPU to wciskanie kitu niezorientowanym I to nie tylko moje zdanie.
skoti48 @ 2009.09.27 23:32
GF 4MX nie miał nazwy wspólnej z Dx9, bo wyszedł jako karta z Dx7 - pierwsze GF z Dx9 to seria FX, ale i one nie miały nic wspólnego z Dx9.0c, który był wydany dużo później
Chodzi o to że była to rzekomo seria GeForce 4 ale technologicznie to samo co Geforce 2. To był duży krok do tyłu względem serii 3 a co tu mówić o 4.
skoti48 @ 2009.09.27 23:32
Jak wygląda polityka cenowa Amd każdy zobaczy po wypuszczeniu GT300 ;p. Człowieku to jest biznes i jest jasne, że jak nie ma konkurencji to cena jest wyższa.
Ja wiem że to nie organicacja charytatywna, ale nawet w biznesie obowiązują jakieś zasady. Przecież fakt że zwracali kasę ludziom którzy słono przepłacili zaraz po premierze daje do myślenia.
Ja nie dyskutuję czy byly szybsze. Mowa o tym że przeskoczenie dwóch generacji kart na tym samym GPU to wciskanie kitu niezorientowanym I to nie tylko moje zdanie.
Jakiego kitu? Niezorientowany kupując nową kartę graficzną chce kupić kartę wydajniejszą i współpracującą z nowinkami i nVidia w pełni jego oczekiwania spełniała i nie wciskała kitu. To, że zaprojektowała kartę która się świetnie skaluje i jest tak uniwersalna (dzięki CUDA), że do dziś nie wykorzystano ich potencjału to się tylko chwali, i nie powinno dziwić, że się tą konstrukcję tylko przyspiesza przez dodanie jednostek obliczeniowych czy zwiększenie częstotliwości.
Mówienie, że nVidia jest zła bo nie przebudowała wszystkiego, to tak jak powiedzieć, że nowy samochód jest do dupy, bo ma lakier, opony i dalej jeździ się głową do góry.
pajownik @ 2009.09.28 00:01
Chodzi o to że była to rzekomo seria GeForce 4 ale technologicznie to samo co Geforce 2. To był duży krok do tyłu względem serii 3 a co tu mówić o 4.
Biznes to biznes - nVidia zaskoczyła rynek gf3 który był świetny, ale drogi, i się nie sprzedawał. Więc w kolejnej wersji nVidia uraczyła 2x seriami w jednej czyli Ti wydajnej, a drogiej i MX budżetówka bez shaderów - shadery były wtedy za drogie więc, nie mogły się pojawić w kartach budżetowych, a nVidia nie mogła sobie pozwolić na robienie tylko bardzo drogich kart (dlatego oznaczyła inaczej serię przez Ti i MX, ale fakt mogło to wprowadzić w błąd)
pajownik @ 2009.09.28 00:01
Ja wiem że to nie organicacja charytatywna, ale nawet w biznesie obowiązują jakieś zasady. Przecież fakt że zwracali kasę ludziom którzy słono przepłacili zaraz po premierze daje do myślenia.
Zasady monopolu nie obejmują, a wtedy jak i teraz ceny są zawyżone (wtedy u nVidii... teraz u obu firm ;p).
My tu gadu gadu a tu się późno zrobiło. Fajnie się z tobą dyskutuje skoti48, widać że nie siedzisz w 'branży' od wczoraj. A kto ma rację? Cóż, jak mawiali starożytni: Racja jest jak dupa, każdy ma swoją.
Nie mówię o grach tylko sterownikach - błędy przy filtrze antizo (w najnowszych sterach do serii 5xxx poprawione
Akurat to żaden błąd był. I na GT200 też nie osiąga się idealnego okręgu. W grach zresztą różnice między trzema (HD4xxx, GT200 i HD5xxx) na analogicznych ustawieniach widać dopiero pod lupą. Nie wierzysz? Zapraszam na HardOCP do ich recenzji 5870.
Niezorientowany kupując nową kartę graficzną chce kupić kartę wydajniejszą i współpracującą z nowinkami i nVidia w pełni jego oczekiwania spełniała i nie wciskała kitu.
Niezorientowany prędzej kupi nV, bo Geforce to Geforce, to raz.
Dwa, że niezorientowanego bardzo łatwo nabić w butelkę. Ale to nie wina nV. Tylko producentów kart robiących marketingowe wyczyny typu 1GB DDR2 zamiast GDDR3 na low-endzie czy nawet czasami mid-endzie.
I niezorientowanemu CUDA/Stream akurat nie jest potrzebne do szczęścia. A rola PhysXa jest IMO bardzo porównywalna z rolą DX10.1. Ot, bonusy w paru grach i tyle. Kwestia tego, czy wolisz Stalkera:CS i HAWXa, czy Mirror's Edge i Batmana
Ujadacie jak Radeonowskie kundle, bo tylko tyle potraficie a ja im się nie dziwie. Kupili AGEIe, inwestują w tą sprawę nie małą kasę, i jeszcze mieliby się zajmować np. złą współpracą PhysXa ze sterownikami ATI? Nigdy w życiu, tu prezentów się nie rozdaje, tu jest biznes. Pomijam już tutaj fakt że PhysXa dostajecie niejako gratis z GeForcem - i zwykle nie trzeba ładować drugiej karty... Zwykle bo niektórzy chcieliby żeby GeForce GTX260 ciągnął każdą grę w 1920x1200 z AA i jeszcze PhysXem... Na takich brak mi słów.
Dlatego zanim zaczniecie się żalić i złorzeczyć na PhysX warto pomyśleć dlaczego tak się stało... a NVIDIA produkuje procesory graficzne, a nie karty do fizyki
Nie mówię o grach tylko sterownikach - błędy przy filtrze antizo (w najnowszych sterach do serii 5xxx poprawione
Akurat to żaden błąd był. I na GT200 też nie osiąga się idealnego okręgu. W grach zresztą różnice między trzema (HD4xxx, GT200 i HD5xxx) na analogicznych ustawieniach widać dopiero pod lupą. Nie wierzysz? Zapraszam na HardOCP do ich recenzji 5870.
Na nVidii nie uzyskasz idealnego koła (jak na nowych sterownikach s3 czy nowych kartach Ati), ale jest dużo lepsze niż na starych kartach Ati.
Jedyne porównanie AF na HardOCP http://www.hardocp.com/images/articles/125...kvJfn_6_2_l.png - dalej nie widzisz różnicy, bo filtrowanie jest wyłączone, a testowane jest AA. W grach widać różnice (chyba, że ma słabe, nieostre tekstury) .
fajny Rafałek @ 2009.09.28 00:21
Niezorientowany prędzej kupi nV, bo Geforce to Geforce, to raz.
Dla osoby niezorientowanej GeForce nic nie znaczy, a więcej mu może powiedzieć nazwa AMD.
fajny Rafałek @ 2009.09.28 00:21
I niezorientowanemu CUDA/Stream akurat nie jest potrzebne do szczęścia. A rola PhysXa jest IMO bardzo porównywalna z rolą DX10.1. Ot, bonusy w paru grach i tyle. Kwestia tego, czy wolisz Stalkera:CS i HAWXa, czy Mirror's Edge i Batmana
Ciężko się z tym zgodzić, bo na DX10 można osiągnąć to samo, dokładnie tak samo szybko (albo szybciej)... na CPU uzyskasz to samo co na GPU, ale szybkość diametralnie spadnie.
Gacor @ 2009.09.28 00:40
Kupili AGEIe, inwestują w tą sprawę nie małą kasę, i jeszcze mieliby się zajmować np. złą współpracą PhysXa ze sterownikami ATI?
Tu nie ma żadnej współpracy ze sterownikami ATI więc Twoja teoria pada - sterowniki nVidii działające na ich karcie obliczają fizykę i oddają dane do pamięci z której czyta procesor (dokładnie jak normalnie). Te dane to np w wypadku right body macierz 4x4 przedstawiająca macierz przekształcenia obiektu.
Gacor: Tak, ale chodzi o to, że klient kupując np. pół roku temu powiedzmy GF9800 do swojego radka 4870, mógł oczekiwać, że tego pierwszego będzie wykorzystywał tylko do fizyki. Tak więc jeśli teraz NVIDIA mu to blokuje - to ma prawo czuć się pokrzywdzony. Bo sama NVIDIA mówiła, że można użyć słabszej karty do fizyki, a lepszej do grafiki - tak więc sama podała ten pomysł. Chodziło jej oczywiście o to, zeby używać jej z innym GF-em - więc nie mów, że produkują karty graficzne, jak niemalże reklamowali starsze modele jako karty fizyki . A teraz taki klient (9800+4870) może poprosić o zwrot kasy i powiedzieć, że nikt go nie poniformował, że karta nie będzie współpracować z radeonem jako karta fizyki.
Can I use an NVIDIA GPU as a PhysX processor and a non-NVIDIA GPU for regular display graphics?
No. There are multiple technical connections between PhysX processing and graphics that require tight collaboration between the two technologies. To deliver a good experience for users, NVIDIA PhysX technology has been fully verified and enabled using only NVIDIA GPUs for graphics.
Wydaje mi sie ze Gacor ma racje. To ich technologia i maja prawo robic z na co chca. a to ze mnie to wkur.....a to juz inna sprawa. i ze zaplacilem za ich karte a nie moge uzywac tego jak che tez.
Oczywiscie wolal bym dowolnosc wyboru karty do grafiki/fizki i ewentualnemu mixowi ATI/NV/(nadchodzacy Intel).
Wkorw...a nie polityka marketingowa NV. ich @#$%^ kotletomania. trzymam kciuki za moderow. niech zlamia to zabezpieczenie jak naj szybciej, najlepiej w postaci patch do danej wersji sterow
i mam nadzieje ze HAVOC sie rozpowszechni zeby zrobic im pozadna konkurencje.
Strata w oczach <1% osób (przeważnie nie klientów tej firmy), przy świadomości, że lepiej kupić karty nVidii niż AMD (np. ze względu na PhysX), nie wiele zmieni.
Chyba jednak fakt, że firma, której produktu rozważa się kupno, ma skłonność do późniejszego pozbawiania tych produktów funkcjonalności aby wymusić kupno nowego produktu tej samej firmy, wpływa bardziej na świadomość konsumentów niż się Tobie wydaje.
skoti48 @ 2009.09.28 00:11
Biznes to biznes - nVidia zaskoczyła rynek gf3 który był świetny, ale drogi, i się nie sprzedawał. Więc w kolejnej wersji nVidia uraczyła 2x seriami w jednej czyli Ti wydajnej, a drogiej i MX budżetówka bez shaderów - shadery były wtedy za drogie więc, nie mogły się pojawić w kartach budżetowych, a nVidia nie mogła sobie pozwolić na robienie tylko bardzo drogich kart (dlatego oznaczyła inaczej serię przez Ti i MX, ale fakt mogło to wprowadzić w błąd)
Pięknie tłumaczysz grzmocenie własnych klientów w kakao przez, tylko z tego tłumaczenia nie wynika żadne usprawiedliwienie.
Ciekawe jak gładko wytłumaczysz wprowadzenie człona 'XT' do nazwy najsłabszych wersji układów u NV, akurat gdy utarło się to wśród kart konkurencji jako oznaczenie najmocniejszych dostępnych modeli kart?
Wydaje mi sie ze Gacor ma racje. To ich technologia i maja prawo robic z na co chca.
Nie, nie ma, i nie, nie mają.
Gdyby od początku uniemożliwiali wykorzystanie swoich kart graficznych w taki sposób (akcelerator fizyki niezależnie od użytego gpu) to nie było by o czym mówić. Jednak teraz, po fakcie, gdy część klientów już kupiła karty graficzne spodziewając się określonej funkcjonalności, to nikt im nie ma prawa jej odbierać.
Mam nadzieję, że się z tego jakiś większy proces sądowy ugotuje, inaczej otwieramy furtkę do rozwiązań w stylu : sterowniki o określonym okresie ważności (trwania licencji), a w nowych wersjach sterowników po wykryciu, że karta graficzna należy do starej serii - program pracujący w tle obciążający kartę, do tego obniżenie taktów i wyłączenie wiatraka/ustawienie najwyższych obrotów, no i ściąganie spyware .
Pomysły na brudne zagrywki do, których może dojść jeśli podobna polityka będzie dalej stosowana można mnożyć w nieskończoność, więc jeśli sprawa przejdzie bez echa i ogromnych odszkodowań, to powinniśmy wszyscy zacząć się obawiać.
Przykład nie trafiony bo Ati miała bardzo kiepskie sterowniki i dopiero teraz to poprawia (dalej nie wszystko jest naprawione, ale idzie ku dobremu).
Jakie problemy?
Używałem ATI przez jakieś 10 lat, nie miałem żadnych problemów - NIC. Na pewno mówimy o legalnych, patchowanych grach?
Żeby nie było - jadę teraz na nvidii, bo ...nie było pasującego mi bloku wodnego do ati. Jak tylko pojawią się nowe radki wracam do 'czerwonych', bo śmieszny jest fakt, że mój 'potwór' nvidii (gtx280) nie potrafi w niektórych grach wyświetlać HDR przy włączonym AA...
Z ati nie miałem - powtórzę - żadnych problemów ze sterownikami. Może dlatego, że jestem legalny, może dlatego, że używam dobrego sprzętu, rzetelnych pamięci, procka intela? Nie wiem. Ale dajcie już spokój z tekstami o sterownikach ATI, bo w większości przypadków są to czyste bzdury.
No i co z tego wynika?
Były szybsze? Były! Ati ich nie doganiała? Tak! Dawały wszystko co Ati, a nawet więcej? Tak!
Więc gdzie tu chcesz się przyczepić? Jak już chcesz się czepiać to czepiaj się Ati, że wcześniej nie dogoniła nVidii (jak dogonili to nVidia przygotowała całkowicie nową konstrukcję).
GF 4MX nie miał nazwy wspólnej z Dx9, bo wyszedł jako karta z Dx7 - pierwsze GF z Dx9 to seria FX, ale i one nie miały nic wspólnego z Dx9.0c, który był wydany dużo później
Co do programu TWiMTB i mówieniem, że dx10.1 nic nie daje użytkownikom to mieli rację, bo nic nie daję (daje tylko troszkę mniej roboty programistom (w efekcie więcej, ale to inna sprawa)), więc nVidia olała nic nie dającą wersję i w ramach programu mówiła jak to samo zrobić w DX10 szybciej niż w DX10.1
Jak wygląda polityka cenowa Amd każdy zobaczy po wypuszczeniu GT300 ;p. Człowieku to jest biznes i jest jasne, że jak nie ma konkurencji to cena jest wyższa.
Physx to nie tylko pc ,jest on rownierz najpopularniejszy wsrod konsolowych hitow ;] . Nvidia nie musi sie martwic o popularnosc tego silnika jeszcze przez dlugi czas .
Jakie problemy?
Używałem ATI przez jakieś 10 lat, nie miałem żadnych problemów - NIC. Na pewno mówimy o legalnych, patchowanych grach?
Nie mówię o grach tylko sterownikach - błędy przy filtrze antizo (w najnowszych sterach do serii 5xxx poprawione, czy sterownikach OpenGL gdzie robią cyrki (ostatnio też poprawiają, ale dalej są do tyłu względem konkurencji - zarówno względem jakości, jak i aktualności (ati przedstawiło sterowniki OpenGL 3.1 (stery 9.8) tydzień po tym jak nVidia dała stery OpenGL 3.2))). Artefakty przy AA - jak pisałem sterowniki dalej kiepskie, ale od wymienienia programistów na przełomie 8.x - 9.x jest coraz lepiej.
Możesz napisać w jakich grach i jak ustawiasz to AA? Bo jeśli wymuszasz w sterownikach, a nie w grze to nic dziwnego, bo HDR musi być robiony jako postproces (a w DX10 nie można użyć AA jako postproces i programiści muszą pisać to sami (jeśli gra korzysta z DX10.1 i programiści się nie postarali (nie napisali wersji dla kart dx10) to faktycznie może nie być AA)).
Physx to nie tylko pc ,jest on rownierz najpopularniejszy wsrod konsolowych hitow ;] . Nvidia nie musi sie martwic o popularnosc tego silnika jeszcze przez dlugi czas .
Akurat na PS3 PhysX jest dosyć młody i tam kruluje wspomniany Bullet, który jest standardowym silnikiem fizyki tam (sony zatrudniło twórcę bullet (wcześniej pracował nad havok), żeby dostosował bullet do procesora Cell i bullet został włączony do bibliotek na PS3).
Przykład nie trafiony bo Ati miała bardzo kiepskie sterowniki i dopiero teraz to poprawia (dalej nie wszystko jest naprawione, ale idzie ku dobremu).
Co do sterowników ATI, ja nie twierdzę że nie było z nimi problemów ale to było dość dawno. Na dzień dzisiejszy niema jakichś zasadniczych problemów, a mimo to na forach pokutuje stwierdzenie jakie to stery do radków kiepskie są. I o to chodziło w przykładzie. Jak ludzie zaczną coś gadać, to inni będą to długo powtarzać chćby to i nie była prawda.
A co do wydawania starych kart pod szyldem nowej generacji, to tak jest to złe - bo wprowadza w błąd klienta. A, że były wydajne to owszem, ale nie mów proszę, że bardziej od radeonów.
A co do wydawania starych kart pod szyldem nowej generacji, to tak jest to złe - bo wprowadza w błąd klienta. A, że były wydajne to owszem, ale nie mów proszę, że bardziej od radeonów.
Tak gf4ti wspierał dx8, a gf4mx dx7 - wszystko było na pudełku i w sieci... ale zapewne wiele osób kupiło gf4mx - ile to lat temu było? 7-8?.
W jaki błąd? Nowa seria dla klienta to większa szybkość. GF 285 nie jest wydajniejszy od radeonów? No przestań.
Możesz powiedzieć z jakich fusów to wyczytałeś, bo żaden silnik fizyki nie zamierza przejść do Dx... co najwyżej do OpenCL.
No i co z tego wynika?
Były szybsze? Były! Ati ich nie doganiała? Tak! Dawały wszystko co Ati, a nawet więcej? Tak!
Więc gdzie tu chcesz się przyczepić? Jak już chcesz się czepiać to czepiaj się Ati, że wcześniej nie dogoniła nVidii (jak dogonili to nVidia przygotowała całkowicie nową konstrukcję).
Ja nie dyskutuję czy byly szybsze. Mowa o tym że przeskoczenie dwóch generacji kart na tym samym GPU to wciskanie kitu niezorientowanym I to nie tylko moje zdanie.
GF 4MX nie miał nazwy wspólnej z Dx9, bo wyszedł jako karta z Dx7 - pierwsze GF z Dx9 to seria FX, ale i one nie miały nic wspólnego z Dx9.0c, który był wydany dużo później
Chodzi o to że była to rzekomo seria GeForce 4 ale technologicznie to samo co Geforce 2. To był duży krok do tyłu względem serii 3 a co tu mówić o 4.
Jak wygląda polityka cenowa Amd każdy zobaczy po wypuszczeniu GT300 ;p. Człowieku to jest biznes i jest jasne, że jak nie ma konkurencji to cena jest wyższa.
Ja wiem że to nie organicacja charytatywna, ale nawet w biznesie obowiązują jakieś zasady. Przecież fakt że zwracali kasę ludziom którzy słono przepłacili zaraz po premierze daje do myślenia.
Jakiego kitu? Niezorientowany kupując nową kartę graficzną chce kupić kartę wydajniejszą i współpracującą z nowinkami i nVidia w pełni jego oczekiwania spełniała i nie wciskała kitu. To, że zaprojektowała kartę która się świetnie skaluje i jest tak uniwersalna (dzięki CUDA), że do dziś nie wykorzystano ich potencjału to się tylko chwali, i nie powinno dziwić, że się tą konstrukcję tylko przyspiesza przez dodanie jednostek obliczeniowych czy zwiększenie częstotliwości.
Mówienie, że nVidia jest zła bo nie przebudowała wszystkiego, to tak jak powiedzieć, że nowy samochód jest do dupy, bo ma lakier, opony i dalej jeździ się głową do góry.
Chodzi o to że była to rzekomo seria GeForce 4 ale technologicznie to samo co Geforce 2. To był duży krok do tyłu względem serii 3 a co tu mówić o 4.
Biznes to biznes - nVidia zaskoczyła rynek gf3 który był świetny, ale drogi, i się nie sprzedawał. Więc w kolejnej wersji nVidia uraczyła 2x seriami w jednej czyli Ti wydajnej, a drogiej i MX budżetówka bez shaderów - shadery były wtedy za drogie więc, nie mogły się pojawić w kartach budżetowych, a nVidia nie mogła sobie pozwolić na robienie tylko bardzo drogich kart (dlatego oznaczyła inaczej serię przez Ti i MX, ale fakt mogło to wprowadzić w błąd)
Zasady monopolu nie obejmują, a wtedy jak i teraz ceny są zawyżone (wtedy u nVidii... teraz u obu firm ;p).
Akurat to żaden błąd był. I na GT200 też nie osiąga się idealnego okręgu. W grach zresztą różnice między trzema (HD4xxx, GT200 i HD5xxx) na analogicznych ustawieniach widać dopiero pod lupą. Nie wierzysz? Zapraszam na HardOCP do ich recenzji 5870.
Niezorientowany prędzej kupi nV, bo Geforce to Geforce, to raz.
Dwa, że niezorientowanego bardzo łatwo nabić w butelkę. Ale to nie wina nV. Tylko producentów kart robiących marketingowe wyczyny typu 1GB DDR2 zamiast GDDR3 na low-endzie czy nawet czasami mid-endzie.
I niezorientowanemu CUDA/Stream akurat nie jest potrzebne do szczęścia. A rola PhysXa jest IMO bardzo porównywalna z rolą DX10.1. Ot, bonusy w paru grach i tyle. Kwestia tego, czy wolisz Stalkera:CS i HAWXa, czy Mirror's Edge i Batmana
Dlatego zanim zaczniecie się żalić i złorzeczyć na PhysX warto pomyśleć dlaczego tak się stało... a NVIDIA produkuje procesory graficzne, a nie karty do fizyki
Akurat to żaden błąd był. I na GT200 też nie osiąga się idealnego okręgu. W grach zresztą różnice między trzema (HD4xxx, GT200 i HD5xxx) na analogicznych ustawieniach widać dopiero pod lupą. Nie wierzysz? Zapraszam na HardOCP do ich recenzji 5870.
Na nVidii nie uzyskasz idealnego koła (jak na nowych sterownikach s3 czy nowych kartach Ati), ale jest dużo lepsze niż na starych kartach Ati.
Jedyne porównanie AF na HardOCP http://www.hardocp.com/images/articles/125...kvJfn_6_2_l.png - dalej nie widzisz różnicy, bo filtrowanie jest wyłączone, a testowane jest AA. W grach widać różnice (chyba, że ma słabe, nieostre tekstury) .
Niezorientowany prędzej kupi nV, bo Geforce to Geforce, to raz.
Dla osoby niezorientowanej GeForce nic nie znaczy, a więcej mu może powiedzieć nazwa AMD.
I niezorientowanemu CUDA/Stream akurat nie jest potrzebne do szczęścia. A rola PhysXa jest IMO bardzo porównywalna z rolą DX10.1. Ot, bonusy w paru grach i tyle. Kwestia tego, czy wolisz Stalkera:CS i HAWXa, czy Mirror's Edge i Batmana
Ciężko się z tym zgodzić, bo na DX10 można osiągnąć to samo, dokładnie tak samo szybko (albo szybciej)... na CPU uzyskasz to samo co na GPU, ale szybkość diametralnie spadnie.
Tu nie ma żadnej współpracy ze sterownikami ATI więc Twoja teoria pada - sterowniki nVidii działające na ich karcie obliczają fizykę i oddają dane do pamięci z której czyta procesor (dokładnie jak normalnie). Te dane to np w wypadku right body macierz 4x4 przedstawiająca macierz przekształcenia obiektu.
http://www.nvidia.com/object/physx_faq.html
Na samym dole
Can I use an NVIDIA GPU as a PhysX processor and a non-NVIDIA GPU for regular display graphics?
No. There are multiple technical connections between PhysX processing and graphics that require tight collaboration between the two technologies. To deliver a good experience for users, NVIDIA PhysX technology has been fully verified and enabled using only NVIDIA GPUs for graphics.
I tyle w temacie...
Oczywiscie wolal bym dowolnosc wyboru karty do grafiki/fizki i ewentualnemu mixowi ATI/NV/(nadchodzacy Intel).
Wkorw...a nie polityka marketingowa NV. ich @#$%^ kotletomania. trzymam kciuki za moderow. niech zlamia to zabezpieczenie jak naj szybciej, najlepiej w postaci patch do danej wersji sterow
i mam nadzieje ze HAVOC sie rozpowszechni zeby zrobic im pozadna konkurencje.
Strata w oczach <1% osób (przeważnie nie klientów tej firmy), przy świadomości, że lepiej kupić karty nVidii niż AMD (np. ze względu na PhysX), nie wiele zmieni.
Chyba jednak fakt, że firma, której produktu rozważa się kupno, ma skłonność do późniejszego pozbawiania tych produktów funkcjonalności aby wymusić kupno nowego produktu tej samej firmy, wpływa bardziej na świadomość konsumentów niż się Tobie wydaje.
Biznes to biznes - nVidia zaskoczyła rynek gf3 który był świetny, ale drogi, i się nie sprzedawał. Więc w kolejnej wersji nVidia uraczyła 2x seriami w jednej czyli Ti wydajnej, a drogiej i MX budżetówka bez shaderów - shadery były wtedy za drogie więc, nie mogły się pojawić w kartach budżetowych, a nVidia nie mogła sobie pozwolić na robienie tylko bardzo drogich kart (dlatego oznaczyła inaczej serię przez Ti i MX, ale fakt mogło to wprowadzić w błąd)
Pięknie tłumaczysz grzmocenie własnych klientów w kakao przez, tylko z tego tłumaczenia nie wynika żadne usprawiedliwienie.
Ciekawe jak gładko wytłumaczysz wprowadzenie człona 'XT' do nazwy najsłabszych wersji układów u NV, akurat gdy utarło się to wśród kart konkurencji jako oznaczenie najmocniejszych dostępnych modeli kart?
Nie, nie ma, i nie, nie mają.
Gdyby od początku uniemożliwiali wykorzystanie swoich kart graficznych w taki sposób (akcelerator fizyki niezależnie od użytego gpu) to nie było by o czym mówić. Jednak teraz, po fakcie, gdy część klientów już kupiła karty graficzne spodziewając się określonej funkcjonalności, to nikt im nie ma prawa jej odbierać.
Mam nadzieję, że się z tego jakiś większy proces sądowy ugotuje, inaczej otwieramy furtkę do rozwiązań w stylu : sterowniki o określonym okresie ważności (trwania licencji), a w nowych wersjach sterowników po wykryciu, że karta graficzna należy do starej serii - program pracujący w tle obciążający kartę, do tego obniżenie taktów i wyłączenie wiatraka/ustawienie najwyższych obrotów, no i ściąganie spyware
Pomysły na brudne zagrywki do, których może dojść jeśli podobna polityka będzie dalej stosowana można mnożyć w nieskończoność, więc jeśli sprawa przejdzie bez echa i ogromnych odszkodowań, to powinniśmy wszyscy zacząć się obawiać.